Image de Google Jackets
Vue normale Vue MARC vue ISBD

Choisir la meilleure configuration d'un système de recherche d'information

Par : Contributeur(s) : Type de matériel : TexteTexteLangue : français Détails de publication : 2014. Sujet(s) : Ressources en ligne : Abrégé : Les campagnes telles que Text REtrieval Conference (TREC) offrent un cadre qui permet d’évaluer des systèmes de recherche d’information (RI). L’évaluation utilise des mesures qui se basent sur une moyenne des résultats obtenus pour un ensemble de besoins en information : les succès et échecs sur chacun des besoins sont masqués. Dans un premier temps, cet article propose une analyse qui prend en compte la diversité des résultats et qui a pour but de sélectionner le système de RI le plus apte à traiter les besoins selon leur difficulté. L’évaluation montre un gain maximal en robustesse de 68 % et de 10 % sur les performances. Dans un second temps, nous montrons qu’il est possible d’apprendre la meilleure configuration de système en s’appuyant sur un sous-ensemble de documents dont la pertinence est connue.Abrégé : Evaluation campaigns such as Text REtrieval Conference (TREC) offer a framework to evaluate information retrieval (IR) systems. Generally, these evaluation results are averaged over information needs so successes and failures on specific needs are hidden. At first, this article proposes an analysis which takes into account the diversity of results and select the IR system best suited to address the information needs according to their difficulty. An experiment is driven in order to select the best systems according to the information need difficulty. Evaluation results show a maximum gain of 68% in reliability and of 10% on performances. In a second step, we show that it is possible to learn the best system configuration based on a subset of documents which relevance is known.
Tags de cette bibliothèque : Pas de tags pour ce titre. Connectez-vous pour ajouter des tags.
Evaluations
    Classement moyen : 0.0 (0 votes)
Nous n'avons pas d'exemplaire de ce document

78

Les campagnes telles que Text REtrieval Conference (TREC) offrent un cadre qui permet d’évaluer des systèmes de recherche d’information (RI). L’évaluation utilise des mesures qui se basent sur une moyenne des résultats obtenus pour un ensemble de besoins en information : les succès et échecs sur chacun des besoins sont masqués. Dans un premier temps, cet article propose une analyse qui prend en compte la diversité des résultats et qui a pour but de sélectionner le système de RI le plus apte à traiter les besoins selon leur difficulté. L’évaluation montre un gain maximal en robustesse de 68 % et de 10 % sur les performances. Dans un second temps, nous montrons qu’il est possible d’apprendre la meilleure configuration de système en s’appuyant sur un sous-ensemble de documents dont la pertinence est connue.

Evaluation campaigns such as Text REtrieval Conference (TREC) offer a framework to evaluate information retrieval (IR) systems. Generally, these evaluation results are averaged over information needs so successes and failures on specific needs are hidden. At first, this article proposes an analysis which takes into account the diversity of results and select the IR system best suited to address the information needs according to their difficulty. An experiment is driven in order to select the best systems according to the information need difficulty. Evaluation results show a maximum gain of 68% in reliability and of 10% on performances. In a second step, we show that it is possible to learn the best system configuration based on a subset of documents which relevance is known.

PLUDOC

PLUDOC est la plateforme unique et centralisée de gestion des bibliothèques physiques et numériques de Guinée administré par le CEDUST. Elle est la plus grande base de données de ressources documentaires pour les Étudiants, Enseignants chercheurs et Chercheurs de Guinée.

Adresse

627 919 101/664 919 101

25 boulevard du commerce
Kaloum, Conakry, Guinée

Réseaux sociaux

Powered by Netsen Group @ 2025