Image de Google Jackets
Vue normale Vue MARC vue ISBD

Sécurité et co-innovation à l’ère de l’intelligence artificielle

Par : Type de matériel : TexteTexteLangue : français Détails de publication : 2025. Sujet(s) : Ressources en ligne : Abrégé : In an era of interconnected and collaborative innovation, artificial intelligence (AI) has emerged as a catalyst for co-innovation between laboratories, companies, and institutions. While it enhances data flows, decision-making processes, and inter-organizational exchanges, AI also introduces new risks: algorithmic bias, technical vulnerabilities, technological dependency, and governance challenges. This paper explores the dual role of AI as both a security enabler and a potential source of instability in strategic partnerships. Drawing on a targeted literature review and concrete case studies, the study offers a typology of AI-related risks in collaborative projects and proposes a governance framework based on transparency, traceability, and regulatory compliance. Practical recommendations are also provided to embed cybersecurity measures from the early stages of innovation initiatives. The goal is to strengthen the resilience of institutional partnerships in the age of AI, while promoting ethical, responsible, and sustainable innovation.Abrégé : Dans un contexte où l’innovation devient collaborative et interconnectée, l’intelligence artificielle (IA) s’impose comme un catalyseur de co-innovation entre laboratoires, entreprises et institutions. Si elle optimise les flux de données, les processus décisionnels et les échanges interorganisationnels, elle soulève également des risques nouveaux : biais algorithmiques, vulnérabilités techniques, dépendances technologiques et enjeux de gouvernance. Cette communication interroge la double nature de l’IA comme levier de sécurisation et comme source potentielle d’instabilités dans les partenariats stratégiques. En mobilisant une revue ciblée de la littérature et des cas concrets, l’étude propose une typologie des risques spécifiques à l’IA dans les projets collaboratifs et avance un cadre de gouvernance articulé autour de la transparence, la traçabilité et la conformité. Elle formule enfin des recommandations opérationnelles pour intégrer la cybersécurité dès la conception des initiatives d’innovation. L’objectif est de renforcer la résilience des coopérations institutionnelles à l’ère de l’IA tout en favorisant une innovation éthique, responsable et durable.
Tags de cette bibliothèque : Pas de tags pour ce titre. Connectez-vous pour ajouter des tags.
Evaluations
    Classement moyen : 0.0 (0 votes)
Nous n'avons pas d'exemplaire de ce document

22

In an era of interconnected and collaborative innovation, artificial intelligence (AI) has emerged as a catalyst for co-innovation between laboratories, companies, and institutions. While it enhances data flows, decision-making processes, and inter-organizational exchanges, AI also introduces new risks: algorithmic bias, technical vulnerabilities, technological dependency, and governance challenges. This paper explores the dual role of AI as both a security enabler and a potential source of instability in strategic partnerships. Drawing on a targeted literature review and concrete case studies, the study offers a typology of AI-related risks in collaborative projects and proposes a governance framework based on transparency, traceability, and regulatory compliance. Practical recommendations are also provided to embed cybersecurity measures from the early stages of innovation initiatives. The goal is to strengthen the resilience of institutional partnerships in the age of AI, while promoting ethical, responsible, and sustainable innovation.

Dans un contexte où l’innovation devient collaborative et interconnectée, l’intelligence artificielle (IA) s’impose comme un catalyseur de co-innovation entre laboratoires, entreprises et institutions. Si elle optimise les flux de données, les processus décisionnels et les échanges interorganisationnels, elle soulève également des risques nouveaux : biais algorithmiques, vulnérabilités techniques, dépendances technologiques et enjeux de gouvernance. Cette communication interroge la double nature de l’IA comme levier de sécurisation et comme source potentielle d’instabilités dans les partenariats stratégiques. En mobilisant une revue ciblée de la littérature et des cas concrets, l’étude propose une typologie des risques spécifiques à l’IA dans les projets collaboratifs et avance un cadre de gouvernance articulé autour de la transparence, la traçabilité et la conformité. Elle formule enfin des recommandations opérationnelles pour intégrer la cybersécurité dès la conception des initiatives d’innovation. L’objectif est de renforcer la résilience des coopérations institutionnelles à l’ère de l’IA tout en favorisant une innovation éthique, responsable et durable.

PLUDOC

PLUDOC est la plateforme unique et centralisée de gestion des bibliothèques physiques et numériques de Guinée administré par le CEDUST. Elle est la plus grande base de données de ressources documentaires pour les Étudiants, Enseignants chercheurs et Chercheurs de Guinée.

Adresse

627 919 101/664 919 101

25 boulevard du commerce
Kaloum, Conakry, Guinée

Réseaux sociaux

Powered by Netsen Group @ 2025