Intelligence artificielle et protection des données : les 6 principaux risques

La discrimination et la violation des droits d’auteur font partie des dangers les plus connus que présente l’utilisation de l’intelligence artificielle. Dans cet article, nous explorerons les principaux risques dans le cadre de la protection des données et leurs conséquences en nous basant sur des exemples concrets.

Auteur / Autrice Digicomp
Date 10.12.2024
Temps de lecture 15 Minutes

L’utilisation de l’intelligence artificielle (IA) augmente de manière exponentielle. L’IA permet de traiter et analyser de grandes quantités de données et de prendre des décisions sur cette base. Durant ce processus, des données personnelles et sensibles peuvent être utilisées. Ce qui pose de nombreuses questions de protection des données.

Quels sont les risques posés par l’IA dans le contexte de la protection des données ?

Afin de pouvoir évaluer les risques liés à l’IA, il est nécessaire de comprendre comment elle est utilisée. Selon une étude du SRH Berlin (2023), 40% des entreprises de la région DACH (Allemagne, Autriche et Suisse) utilisent l’IA en marketing. Près de 32% admettent, selon leur propre estimation, n’avoir que peu de connaissances sur l’IA. Quels sont les risques d’une utilisation de systèmes d’IA par les entreprises et les privés ?

1. Manque de transparence

Un modèle d’IA peut avoir des millions, voir des milliards de paramètres différents. Chaque paramètre a une influence sur le résultat qu’il est difficile de considérer isolément. L’IA utilise une grande quantité de données différentes : par exemple des images, du texte et des informations issues de capteurs. La difficulté de comprendre comment les systèmes d’IA prennent leur décision ou génèrent un résultat est souvent qualifiée de « problème de la boîte noire ».

Exemple : Une banque utilise un système d’IA pour décider de la solvabilité de leurs clients. La logique de cette prise de décision est, pour les raisons mentionnées plus haut, si complexe que la banque ne peut pas comprendre pourquoi les crédits sont refusés. Les employé.e.s de banque sont donc incapables de donner des explications au client sur la raison du refus d’octroi de crédit. Les clients ne peuvent ainsi pas comprendre ou contester la décision.

2. Données d’entraînement biaisées

Les systèmes d’IA ont besoin de grandes quantités de données pour être efficacement entraînés. Plus la quantité de données d’entraînement est élevée, plus la probabilité que toutes les variantes et catégories que le modèle doit reconnaître soient effectivement représentées augmente. S’il y a trop peu de données, le modèle d’IA s’orientera trop fortement sur des exemples spécifiques. Si un groupe est sous-représenté, les modèles seront mal interprétés.

Exemple : Les ressources humaines utilisent un système d’IA pour le recrutement. Ce dernier est entraîné avec des données qui reflètent une discrimination historique des femmes. Cela mène à une préférence inconsciente pour les candidats masculins. Si par le passé les hommes ont été plus souvent promus, par exemple parce que les candidates se trouvaient à ce moment en congé maternité, l’IA suppose à tort que le sexe est un indicateur de réussite professionnel.

3. Violation des droits d’auteur

Un des défis légaux de l’intelligence artificielle est la question de la propriété intellectuelle. Plus une application d’IA reçoit d’inputs, plus elle est précise et efficace. Souvent, des informations accessibles publiquement sont utilisées pour l’entraîner, par exemple des articles de journaux. Ceux-ci relèvent cependant du droit d’auteur. Si l’IA crée du contenu qui se rapproche fortement de contenus protégés par le droit d’auteur, cela peut constituer une violation des droits d’auteur.

Exemple : Une entreprise médiatique française a poursuivi Google en justice parce que « Gemini », son assistant IA, a été entraîné avec les contenus du journal sans information préalable. En mars 2023, l’autorité française de la concurrence a obtenu de Google une amende de 250 millions d’euros. Le New York Times poursuit actuellement Microsoft et OpenAI, parce que ChatGPT a été entraîné avec des millions de contenus médiatiques.

4. Décisions automatisées

Grâce à l’IA, les données peuvent être analysées et exploitées beaucoup plus rapidement. Les systèmes d’IA peuvent considérablement améliorer l’efficacité de l’entreprise. Si des décisions sont prises automatiquement, cela permet de gagner du temps et d’économiser de l’argent. Mais que se passe-t-il lorsque ces décisions sont entachées d’erreurs ?

Exemple : Une compagnie d’assurance utilise l’intelligence artificielle pour traiter les cas de sinistres de manière plus efficace. L’application d’IA recommande aux employé.e.s d’accepter ou de refuser les indemnisations. Dans certains cas, des demandes légitimes peuvent être rejetées parce que l’algorithme interprète mal un modèle particulier. Les clients sont ainsi traités de manière injuste, doivent faire recours et attendre plus longtemps leur indemnisation. Le travail supplémentaire qui en découle augmente les coûts pour la compagnie d’assurance.

5. Absence de contrôle et de consentement

Dans de nombreux cas, les possibilités des individus à s’opposer au traitement de leurs données par les systèmes d’IA ou de gérer efficacement leurs préférences ne sont que très limitées. Il n’existe pour l’instant que peu de directives pour ancrer une utilisation éthique des systèmes d’IA dans la loi. Comment pouvons-nous nous opposer à quelque chose si nous n’en avons pas connaissance ?

Exemple : Une application pour les appareils mobiles utilise l’IA pour afficher des publicités personnalisées. L’application récolte et analyse des données personnelles sans en informer les utilisateurs et utilisatrices et sans leur consentement. En novembre 2022, Google a été poursuivi en justice aux États-Unis parce que des données de géolocalisation des utilisateurs avaient été collectées alors que ce paramètre était désactivé sur les smartphones des personnes concernées.

6. Atteintes à la protection des données

Une violation de la protection des données est un incident de sécurité lors duquel des informations confidentielles ont été dévoilées. Comme tous les systèmes informatiques, les systèmes d’IA sont vulnérables aux failles de sécurité. La fuite de données ou le vol de données peuvent avoir de graves conséquences. Selon le rapport d’IBM « Cost of a Data Breach Report 2022 », une violation de la protection des données dans le secteur de la santé a coûté en moyenne 10,10 millions de dollars US. Ainsi, les coûts d’une violation de la protection des données ont dépassé pour la première fois les 10 millions.

Exemple : Un hôpital utilise l’intelligence artificielle pour analyser les données de patientes et patients. D’une part, des données manquantes peuvent mener à des erreurs médicales. D’autre part, si des pirates réussissent à voler des données de santé sensibles qui étaient sauvegardées dans le système, c’est la sphère privée de milliers de patientes et de patients qui est atteinte et un risque d’usurpations d’identités peut survenir.

 

Que pense la Suisse de l’intelligence artificielle ?

Jusqu’ici, il n’y a pas de définition officielle de l’intelligence artificielle. Economiesuisse la décrit notamment comme un outil utilisé pour développer des ordinateurs ou des machines capables de reproduire des capacités cognitives telles que l’apprentissage, la résolution de problèmes et la prise de décision.

41% des cadres suisses estiment que l’IA est une chance

Selon une étude de MISTREND (2023), 41 % des leaders interrogés considèrent que l’Intelligence Artificielle représente plutôt une opportunité lorsqu’il s’agit de l’utiliser dans l’entreprise. L’automatisation de tâches répétitives permet de rendre les processus de travail plus efficaces. L’IA permet également une certaine personnalisation, par exemple lorsqu’il s’agit d’adapter des produits ou des services aux besoins individuels. L’analyse de données devient également plus accessible.

32% de la population suisse interrogée estime que l’IA est plutôt un danger

Là où certains voient des opportunités, d’autres voient aussi des dangers. Comme le montre l’étude de MISTREND, 32 % de la population suisse associe l’utilisation de l’IA avec des risques. En comparaison avec 2020, la population suisse se montre moins optimiste en 2023. Le nombre de personnes l’estimant comme un danger a presque doublé, passant de 18% en 2020 à 32 % en 2023 : l’amélioration de l’efficacité peut mener à perdre son emploi – ou tout du moins à craindre cette issue, l’analyse de données par IA peut s’avérer erronée et les systèmes d’IA peuvent prendre des décisions inéquitables.

L’utilisation de l’IA exige une certaine responsabilité

L’utilisation responsable de l’Intelligence artificielle est un défi. Des contrôles qualité réguliers, des normes de sécurité élevées et une surveillance humaine sont essentiels. Enfin, les entreprises comme les particuliers doivent s’interroger sur leurs droits et prendre conscience des risques liés à l’intelligence artificielle afin de pouvoir s’y opposer activement.

Découvrez les lois qui encadrent l’utilisation de l’intelligence artificielle

Que ce soit pour développer votre compréhension de la loi suisse en vigueur sur la protection des données, explorer les cadres légaux suisses et européens ou apprendre à mettre en place un système de management de l’intelligence artificielle selon la norme ISO/IEC 42001, nous avons la formation qui répond à vos besoins !

Nouvelle loi suisse sur la protection des données (nLPD)
Dans ce cours, vous découvrirez de manière complète et grâce à des exemples pratiques les nouvelles exigences légales suisses de la nouvelle loi sur la protection des données (nLPD).

IA & Conformité
Dans cette formation, vous explorerez les aspects technologiques et légaux de l’IA afin d’analyser activement les risques pour votre organisation et de les minimiser de manière ciblée.

ISO/IEC 42001 Foundation
Cette formation permet d’acquérir les bases nécessaires pour établir et gérer un système de gestion de l’intelligence artificielle (SMIA) conforme à la norme ISO/IEC 42001.

ISO/IEC 42001 Lead Implementer
Cette formation permet d’acquérir les compétences essentielles nécessaires pour planifier, mettre en œuvre, gérer, surveiller, maintenir et améliorer un système de gestion de l’intelligence artificielle (SMIA).

ISO/IEC 42001 Lead Auditor
Cette formation vous permet d’acquérir l’expertise nécessaire pour réaliser l’audit des systèmes de management de l’intelligence artificielle (SMIA) en appliquant des principes, des procédures et des techniques d’audit largement reconnus.

Que ce soit pour développer votre compréhension de la loi suisse en vigueur sur la protection des données, explorer les cadres légaux suisses et européens ou apprendre à mettre en place un système de management de l’intelligence artificielle selon la norme ISO/IEC 42001, nous avons la formation qui répond à vos besoins !

Nouvelle loi suisse sur la protection des données (nLPD)
Dans ce cours, vous découvrirez de manière complète et grâce à des exemples pratiques les nouvelles exigences légales suisses de la nouvelle loi sur la protection des données (nLPD).

IA & Conformité
Dans cette formation, vous explorerez les aspects technologiques et légaux de l’IA afin d’analyser activement les risques pour votre organisation et de les minimiser de manière ciblée.

ISO/IEC 42001 Foundation
Cette formation permet d’acquérir les bases nécessaires pour établir et gérer un système de gestion de l’intelligence artificielle (SMIA) conforme à la norme ISO/IEC 42001.

ISO/IEC 42001 Lead Implementer
Cette formation permet d’acquérir les compétences essentielles nécessaires pour planifier, mettre en œuvre, gérer, surveiller, maintenir et améliorer un système de gestion de l’intelligence artificielle (SMIA).

ISO/IEC 42001 Lead Auditor
Cette formation vous permet d’acquérir l’expertise nécessaire pour réaliser l’audit des systèmes de management de l’intelligence artificielle (SMIA) en appliquant des principes, des procédures et des techniques d’audit largement reconnus.


Auteur / Autrice

Digicomp

Commentaire