Image de Google Jackets
Vue normale Vue MARC vue ISBD

La boîte noire et le médecin

Par : Type de matériel : TexteTexteLangue : français Détails de publication : 2025. Sujet(s) : Ressources en ligne : Abrégé : The deployment of decision-support tools based on artificial intelligence techniques has highlighted issues of explainability and transparency when automated processing renders the path from input data to output results opaque. By studying tools developed for the treatment of cancer and multiple sclerosis, this paper compares the theoretical thinking of legal experts with the practical concerns of medical professionals on this issue. Drawing on the legal literature and on interviews and evaluation forms, the analysis reveals a partial disjunction: professionals are far more concerned with training data and validation methods than with the internal ‘logic’ of the computer algorithm; they consider the technical options, which are more or less explainable, to be complementary rather than alternative. However, the adoption of the new European Regulation on AI does offer interesting prospects for convergence likely to support the effectiveness of the principles of explainability and their various legal declinations.Abrégé : Le déploiement d’outils d’aide à la décision basés sur des techniques d’intelligence artificielle a mis en lumière les enjeux d’explicabilité et de transparence dès lors que le traitement automatisé rend plus opaque le cheminement allant des données d’entrées aux résultats en sortie. À partir d’outils développés pour la prise en charge du cancer et de la sclérose en plaques, cet article propose de confronter la réflexion théorique des juristes et les préoccupations pratiques des professionnels de la médecine sur cette question. En s’appuyant sur la littérature juridique, d’un côté, et sur des entretiens et des fiches d’évaluation, de l’autre, l’analyse aboutit au constat d’une disjonction partielle : les professionnels se soucient bien davantage des données d’entraînement et des modalités de validation que de la « logique » interne de l’algorithme informatique et considèrent les options techniques plus ou moins explicables de manière complémentaire plutôt qu’alternative. L’adoption du nouveau Règlement européen sur l’IA offre toutefois des perspectives de convergence intéressantes susceptibles de soutenir l’effectivité des principes d’explicabilité et de transparence sous leurs diverses déclinaisons juridiques.
Tags de cette bibliothèque : Pas de tags pour ce titre. Connectez-vous pour ajouter des tags.
Evaluations
    Classement moyen : 0.0 (0 votes)
Nous n'avons pas d'exemplaire de ce document

1

The deployment of decision-support tools based on artificial intelligence techniques has highlighted issues of explainability and transparency when automated processing renders the path from input data to output results opaque. By studying tools developed for the treatment of cancer and multiple sclerosis, this paper compares the theoretical thinking of legal experts with the practical concerns of medical professionals on this issue. Drawing on the legal literature and on interviews and evaluation forms, the analysis reveals a partial disjunction: professionals are far more concerned with training data and validation methods than with the internal ‘logic’ of the computer algorithm; they consider the technical options, which are more or less explainable, to be complementary rather than alternative. However, the adoption of the new European Regulation on AI does offer interesting prospects for convergence likely to support the effectiveness of the principles of explainability and their various legal declinations.

Le déploiement d’outils d’aide à la décision basés sur des techniques d’intelligence artificielle a mis en lumière les enjeux d’explicabilité et de transparence dès lors que le traitement automatisé rend plus opaque le cheminement allant des données d’entrées aux résultats en sortie. À partir d’outils développés pour la prise en charge du cancer et de la sclérose en plaques, cet article propose de confronter la réflexion théorique des juristes et les préoccupations pratiques des professionnels de la médecine sur cette question. En s’appuyant sur la littérature juridique, d’un côté, et sur des entretiens et des fiches d’évaluation, de l’autre, l’analyse aboutit au constat d’une disjonction partielle : les professionnels se soucient bien davantage des données d’entraînement et des modalités de validation que de la « logique » interne de l’algorithme informatique et considèrent les options techniques plus ou moins explicables de manière complémentaire plutôt qu’alternative. L’adoption du nouveau Règlement européen sur l’IA offre toutefois des perspectives de convergence intéressantes susceptibles de soutenir l’effectivité des principes d’explicabilité et de transparence sous leurs diverses déclinaisons juridiques.

PLUDOC

PLUDOC est la plateforme unique et centralisée de gestion des bibliothèques physiques et numériques de Guinée administré par le CEDUST. Elle est la plus grande base de données de ressources documentaires pour les Étudiants, Enseignants chercheurs et Chercheurs de Guinée.

Adresse

627 919 101/664 919 101

25 boulevard du commerce
Kaloum, Conakry, Guinée

Réseaux sociaux

Powered by Netsen Group @ 2025