Image de Google Jackets
Vue normale Vue MARC vue ISBD

Nos algorithmes peuvent-ils être plus justes que nous ?

Par : Type de matériel : TexteTexteLangue : français Détails de publication : 2018. Sujet(s) : Ressources en ligne : Abrégé : La manière dont on pose spontanément le problème – en questionnant la responsabilité ou l’irresponsabilité des algorithmes, ou en cherchant à leur attribuer de manière définitive une pleine subjectivité ou une mesure d’agentivité – repose sur des fondements théoriques dont on fera apparaître qu’ils sont intenables. En prenant un point de départ théorique plus solide – en pensant la coconstitution des médiations techniques et des sujets – et en étudiant en détail le cas particulier des communautés d’échanges de pair-à-pair (ou P2P) –, nous confirmerons l’intuition commune selon laquelle la délégation de la décision morale ou éthique à un algorithme peut relever d’une forme de dépossession, mais nous montrerons qu’elle peut aussi, sous certaines conditions, en assurer l’effectivité. Certaines exigences normatives peuvent avoir besoin de la puissance collective projetée dans un algorithme dépositaire de la charge morale pour être réalisées de manière satisfaisante, et ce précisément de par la factualité de l’algorithme, de par son extériorité à la subjectivité humaine.Abrégé : The way we spontaneously frame the problem – whether by questioning algorithm’s (ir)responsability, or by trying to positively grant them a full subjectivity or some measure of agentivity – rests on theoretical grounds that appear to be essentially flawed. We will find a steadier ground in a theory of the co-constitution of the subjects and their technical mediations, and we will study the particular case of peer-to-peer (P2P) exchange communities, to eventually confirm the common intuition according to which the delegation of a moral or ethical decision to an algorithm may fall within the field of dispossession, yet also show that under certain circumstances, it could also be the condition of its effectivity. Certain normative demands could require the collective power that is being cast into an algorithm, which then holds up the moral load, to be fulfilled – precisely on account of the factuality of the algorithm, of its exteriority to human subjectivity.
Tags de cette bibliothèque : Pas de tags pour ce titre. Connectez-vous pour ajouter des tags.
Evaluations
    Classement moyen : 0.0 (0 votes)
Nous n'avons pas d'exemplaire de ce document

71

La manière dont on pose spontanément le problème – en questionnant la responsabilité ou l’irresponsabilité des algorithmes, ou en cherchant à leur attribuer de manière définitive une pleine subjectivité ou une mesure d’agentivité – repose sur des fondements théoriques dont on fera apparaître qu’ils sont intenables. En prenant un point de départ théorique plus solide – en pensant la coconstitution des médiations techniques et des sujets – et en étudiant en détail le cas particulier des communautés d’échanges de pair-à-pair (ou P2P) –, nous confirmerons l’intuition commune selon laquelle la délégation de la décision morale ou éthique à un algorithme peut relever d’une forme de dépossession, mais nous montrerons qu’elle peut aussi, sous certaines conditions, en assurer l’effectivité. Certaines exigences normatives peuvent avoir besoin de la puissance collective projetée dans un algorithme dépositaire de la charge morale pour être réalisées de manière satisfaisante, et ce précisément de par la factualité de l’algorithme, de par son extériorité à la subjectivité humaine.

The way we spontaneously frame the problem – whether by questioning algorithm’s (ir)responsability, or by trying to positively grant them a full subjectivity or some measure of agentivity – rests on theoretical grounds that appear to be essentially flawed. We will find a steadier ground in a theory of the co-constitution of the subjects and their technical mediations, and we will study the particular case of peer-to-peer (P2P) exchange communities, to eventually confirm the common intuition according to which the delegation of a moral or ethical decision to an algorithm may fall within the field of dispossession, yet also show that under certain circumstances, it could also be the condition of its effectivity. Certain normative demands could require the collective power that is being cast into an algorithm, which then holds up the moral load, to be fulfilled – precisely on account of the factuality of the algorithm, of its exteriority to human subjectivity.

PLUDOC

PLUDOC est la plateforme unique et centralisée de gestion des bibliothèques physiques et numériques de Guinée administré par le CEDUST. Elle est la plus grande base de données de ressources documentaires pour les Étudiants, Enseignants chercheurs et Chercheurs de Guinée.

Adresse

627 919 101/664 919 101

25 boulevard du commerce
Kaloum, Conakry, Guinée

Réseaux sociaux

Powered by Netsen Group @ 2025