Image de Google Jackets
Vue normale Vue MARC vue ISBD

Une technique de réétiquetage dans un contexte de catégorisation de textes

Par : Contributeur(s) : Type de matériel : TexteTexteLangue : français Détails de publication : 2004. Sujet(s) : Ressources en ligne : Abrégé : RésuméPar essence, l’apprentissage supervisé nécessite que chaque individu de l’ensemble d’apprentissage soit préalablement étiqueté. Dans un contexte de catégorisation de textes, l’étiquetage consiste à affecter les catégories d’appartenance d’un document. Cette opération est réalisée par un expert et peut être perçue comme subjective puisque basée sur l’interprétation du document. Ainsi, l’étiquetage peut être considéré comme inconsistant dans certain cas. Par exemple, deux experts peuvent étiqueter différemment un même document, ou encore un même expert peut étiqueter différemment un même document soumis à deux instants différents. Cette inconsistance peut affecter l’efficacité du classifieur. Pour atténuer ces inconvénients, nous considérons que certains individus de l’ensemble d’apprentissage sont mal étiquetés et doivent être réétiquetés. Dans cet article, nous utilisons une méthode de relaxation afin d’optimiser la cohérence de l’étiquetage. Nous appliquons cette technique sur un corpus bien connu dans la communauté de la catégorisation de textes: la collection Reuters-21578 ApteMod. Nous montrons sur ces données que ce type de prétraitement apporte de large bénéfices.Abrégé : In supervised learning, all the instances of the learning sample must be preclassified. In some cases, the labelling is done subjectively by an expert. For instance, in text categorisation, each text is assigned to one or more labels or categories. In such cases, the labelling is inconsistent because it may be different from an expert to another and even may differ on the same expert at different times. The subjectivity of the labelling affects certainly the reliability of the classifier. To reduce the consequences of the subjective labelling, we consider that some examples of the learning sample are misclassified and should be restored. In this article, we use a relaxation method to optimize the coherence of the labelling. We have applied this technique on a well-known text categorization collection: the Reuters-21578 ApteMod collection. We show that this data pre-processing brings some strong benefits.
Tags de cette bibliothèque : Pas de tags pour ce titre. Connectez-vous pour ajouter des tags.
Evaluations
    Classement moyen : 0.0 (0 votes)
Nous n'avons pas d'exemplaire de ce document

89

RésuméPar essence, l’apprentissage supervisé nécessite que chaque individu de l’ensemble d’apprentissage soit préalablement étiqueté. Dans un contexte de catégorisation de textes, l’étiquetage consiste à affecter les catégories d’appartenance d’un document. Cette opération est réalisée par un expert et peut être perçue comme subjective puisque basée sur l’interprétation du document. Ainsi, l’étiquetage peut être considéré comme inconsistant dans certain cas. Par exemple, deux experts peuvent étiqueter différemment un même document, ou encore un même expert peut étiqueter différemment un même document soumis à deux instants différents. Cette inconsistance peut affecter l’efficacité du classifieur. Pour atténuer ces inconvénients, nous considérons que certains individus de l’ensemble d’apprentissage sont mal étiquetés et doivent être réétiquetés. Dans cet article, nous utilisons une méthode de relaxation afin d’optimiser la cohérence de l’étiquetage. Nous appliquons cette technique sur un corpus bien connu dans la communauté de la catégorisation de textes: la collection Reuters-21578 ApteMod. Nous montrons sur ces données que ce type de prétraitement apporte de large bénéfices.

In supervised learning, all the instances of the learning sample must be preclassified. In some cases, the labelling is done subjectively by an expert. For instance, in text categorisation, each text is assigned to one or more labels or categories. In such cases, the labelling is inconsistent because it may be different from an expert to another and even may differ on the same expert at different times. The subjectivity of the labelling affects certainly the reliability of the classifier. To reduce the consequences of the subjective labelling, we consider that some examples of the learning sample are misclassified and should be restored. In this article, we use a relaxation method to optimize the coherence of the labelling. We have applied this technique on a well-known text categorization collection: the Reuters-21578 ApteMod collection. We show that this data pre-processing brings some strong benefits.

PLUDOC

PLUDOC est la plateforme unique et centralisée de gestion des bibliothèques physiques et numériques de Guinée administré par le CEDUST. Elle est la plus grande base de données de ressources documentaires pour les Étudiants, Enseignants chercheurs et Chercheurs de Guinée.

Adresse

627 919 101/664 919 101

25 boulevard du commerce
Kaloum, Conakry, Guinée

Réseaux sociaux

Powered by Netsen Group @ 2025