Image de Google Jackets
Vue normale Vue MARC vue ISBD

L’agentivité algorithmique, fiction futuriste ou impératif de justice procédurale ?

Par : Type de matériel : TexteTexteLangue : français Détails de publication : 2022. Sujet(s) : Ressources en ligne : Abrégé : Cette étude examine si un niveau élevé de protection juridictionnelle peut être garanti dans des cas de dommages résultant de décisions autonomes et opaques, prises par des systèmes de Machine Learning (ML). Analysant les moyens procéduraux offerts par la directive dite ‘produits défectueux’, cette étude fait deux propositions majeures. D’abord, que pour la preuve de la responsabilité de fait ( accountability), soit appliquée la logique de responsabilité pour faute, laissant aux programmeurs, utilisateurs et déployeurs de systèmes ML la possibilité de réfuter la présomption d’agentivité humaine, en démontrant que la faute pour un dommage donné doit être placée sur un algorithme ayant agi seul. Ensuite, s’agissant de la réparation d’un dommage algorithmique ( liability), il est proposé que l’obligation de réparation soit attribuée suivant une logique d’acceptation de risques, pour les systèmes ML à ‘haut risque’ de préjudicie, ou une logique de force majeure, pour tout dommage algorithmique non encore survenu en pratique.Abrégé : This study examines if and how a high standard of judicial protection can apply to litigants in cases dealing with harm caused by autonomous and opaque decisions made by Machine Learning (ML) systems. Based on a critical analysis of the procedural means offered by the EU’s Product Liability Directive (85/374), this study makes two normative claims. First, that a fault liability (rather than a strict liability) model should govern the evidence adducing and assessment, regarding the proof of accountability in cases of AI-related harm. This model appears to be more procedurally fair given that programmers, users and developers of ML systems would have the possibility to rebut the—currently irrefutable—presumption of human agency, by proving that in causing harm, an algorithm had acted alone. Second, the study argues that, for the purpose of compensating AI-related harm, two criteria should be applied: on the one hand, for ML systems presenting so-called notorious risks of harm ( i.e. types of harm that have already occurred in practice), the duty of compensation should lie with the programmer, user or deployer who accepted the risk of such harm materializing. On the other hand, cases of harm that have not yet occurred in practice could qualify as force majeure and could, therefore, be compensated through insurance schemes set up for the purpose of not leaving victims without compensation, when it is plausibly proven that such a harm was authored by an ML system without any human intervention.
Tags de cette bibliothèque : Pas de tags pour ce titre. Connectez-vous pour ajouter des tags.
Evaluations
    Classement moyen : 0.0 (0 votes)
Nous n'avons pas d'exemplaire de ce document

47

Cette étude examine si un niveau élevé de protection juridictionnelle peut être garanti dans des cas de dommages résultant de décisions autonomes et opaques, prises par des systèmes de Machine Learning (ML). Analysant les moyens procéduraux offerts par la directive dite ‘produits défectueux’, cette étude fait deux propositions majeures. D’abord, que pour la preuve de la responsabilité de fait ( accountability), soit appliquée la logique de responsabilité pour faute, laissant aux programmeurs, utilisateurs et déployeurs de systèmes ML la possibilité de réfuter la présomption d’agentivité humaine, en démontrant que la faute pour un dommage donné doit être placée sur un algorithme ayant agi seul. Ensuite, s’agissant de la réparation d’un dommage algorithmique ( liability), il est proposé que l’obligation de réparation soit attribuée suivant une logique d’acceptation de risques, pour les systèmes ML à ‘haut risque’ de préjudicie, ou une logique de force majeure, pour tout dommage algorithmique non encore survenu en pratique.

This study examines if and how a high standard of judicial protection can apply to litigants in cases dealing with harm caused by autonomous and opaque decisions made by Machine Learning (ML) systems. Based on a critical analysis of the procedural means offered by the EU’s Product Liability Directive (85/374), this study makes two normative claims. First, that a fault liability (rather than a strict liability) model should govern the evidence adducing and assessment, regarding the proof of accountability in cases of AI-related harm. This model appears to be more procedurally fair given that programmers, users and developers of ML systems would have the possibility to rebut the—currently irrefutable—presumption of human agency, by proving that in causing harm, an algorithm had acted alone. Second, the study argues that, for the purpose of compensating AI-related harm, two criteria should be applied: on the one hand, for ML systems presenting so-called notorious risks of harm ( i.e. types of harm that have already occurred in practice), the duty of compensation should lie with the programmer, user or deployer who accepted the risk of such harm materializing. On the other hand, cases of harm that have not yet occurred in practice could qualify as force majeure and could, therefore, be compensated through insurance schemes set up for the purpose of not leaving victims without compensation, when it is plausibly proven that such a harm was authored by an ML system without any human intervention.

PLUDOC

PLUDOC est la plateforme unique et centralisée de gestion des bibliothèques physiques et numériques de Guinée administré par le CEDUST. Elle est la plus grande base de données de ressources documentaires pour les Étudiants, Enseignants chercheurs et Chercheurs de Guinée.

Adresse

627 919 101/664 919 101

25 boulevard du commerce
Kaloum, Conakry, Guinée

Réseaux sociaux

Powered by Netsen Group @ 2025