Intelligence artificielle : opportunités et risques
L’intelligence artificielle (IA) influence de plus en plus notre quotidien. Découvrez les opportunités et les risques qu’elle entraine
La croissance et la richesse de l'Europe sont étroitement liées à la manière dont elle utilisera les données et les technologies connectées. L'IA peut faire une grande différence dans nos vies, pour le meilleur ou pour le pire. C'est pourquoi, en juin 2023, le Parlement européen a adopté la réglementation sur l'IA - la toute première législation sur le sujet ayant le but de s'assurer que les systèmes d'intelligence artificelle utilisés dans l'UE soient sûrs et respectent les droits fondamentaux.
En savoir plus sur l’intelligence artificielle et comment elle est utilisée.
181 zettaoctets
Estimation du volume de données produit dans le monde en 2025 (1 zettaoctet équivaut à un milliard de gigaoctets).
Les avantages de l’IA
Les pays de l’UE sont déjà performants dans le secteurs de l’industrei numérique et les applications d’entreprise à entreprise. Une infrastructure numérique de haute qualité et un cadre légal qui protège la vie privée et la liberté d’expression permettrait à l’UE de devenir un leader mondial dans l’économie des données et ses applications.
Les avantages de l’IA pour les citoyens
l’IA pourrait permettre aux citoyens d’accéder à de meilleurs soins de santé, des voitures et d’autres modes de tranport plus surs, ainsi que des services moins couteux, mieux adaptés à leurs besoins et munis d’une plus longue durée de vie. Elle facilite aussi l’accès à l’information, à l’éducation et aux formations.
L’IA peut aussi contribuer à rendre le milieu du travail plus sûr, puisque des robots peuvent être employés pour prendre en charge les tâches dangereuses, tout en créant de nouveaux emplois avec l’expansion des entreprises utilisant l’IA.
67 %
des européens ont une perception positive de l'utilisation des technologies numériques, y compris l’intelligence artificielle, pour améliorer la sécurité et la sûreté des travailleurs.
Les avantages de l’IA pour les entreprises
Du point de vue des entreprises, l’IA peut favoriser le développement d’une nouvelle génération de produits et services, y compris dans des secteurs où les entreprises européennes occupent déjà une place importante : l’économie verte et circulaire, la machinerie, l’agriculture, la santé, la mode et le tourisme. Elle peut créer de nouvelles voies de vente, améliorer la maintenance de machines, augmenter le rendement, améliorer les services pour les consommateurs et permettre d’effectuer des économies d’énergie.
Les avantages de l’IA pour les services publics
Lorsque’elle est utilisée dans les services publics, l’IA peut réduire les couts et offrir de nouvelles opportunités dans les domaines du transport public, l’éducation, l’énergie, la gestion de déchets et peut améliorer la durabilité des produits. L’IA pourrait donc aider à atteindre les objectifs mentionnés dans le Pacte vert pour l’Europe.
Renforcer la démocratie
Les examens minutieux basés sur les données, la lutte contre la désinformation et les cyber-attaques et l’accès à des informations vérifiées pourraient aider à renforcer la démocratie. L’IA pourrait promouvoir la diversité et favoriser l’ouverture d’esprit, en atténuant les risques de préjudice pendant l’embauche en se basant sur l’analyse de données lorsqu’un candidat est choisi (par exemple).
L’IA et la sécurité
Les experts prédisent que l’IA sera plus fréquemment employée dans le système judiciaire et dans la prévention de la délinquance, avec des ensembles massifs de données analysés rapidement, une évaluation plus fine des risques associés à certains profils criminels, voire meme l’émergence de systèmes capables d'empêcher des attaques terroristes. Elle est déjà utilisée par les plateformes en ligne pour détecter les comportements illégaux ou dangereux en ligne.
Dans le domaine militaire, l’IA peut etre utilisée pour élaborer des stratégies de défense et d’attaque dans des cas de piratage ou de phishing ou pour cibler des systèmes névralgiques dans des guerres cybernétiques. Elle peut aider à élaborer des armes autonomes, permettant de minimiser le recours au conflit armé et réduire les atteintes à l’intégrité physique.
Les risques et défis associés à l’IA
Le recours accru à l’IA comporte aussi des risques potentiels.
Sous-exploitation et surexploitation de l’IA
La sous-exploitation de l’IA est perçue comme un risque majeur : si l’UE venait à rater certaines opportunités, cela pourrait déboucher sur une mauvaise application de ses programmes clés. Cela pourrait aussi entrainer une perte d’avantages concurrentiels par rapport à d’autres régions du monde ou mener à une stagnation économique. Une sous-exploitation pourrait provenir d’un manque de confiance en l’IA de la part des entreprises et des citoyens, d’un manque d’infrastructures, d’un manque d’initiative, d’investissements insuffisants ou d’un émiettement du marché numérique.
Une surexploitation peut elle aussi se révéler problématique : investir dans des applications IA qui n’ont pas d’utilité ou avoir recours à l’IA là où elle n’a pas sa place (pour expliquer des questions sociétales complexes, par exemple).
La loi sur l'IA vise à s'attaquer à ces deux dangers. Elle vise à promouvoir une IA digne de confiance en Europe, tant pour les citoyens que pour les entreprises, à s'attaquer aux risques posés par l'IA et à faire de l'Europe un acteur de premier plan dans ce domaine.
Qui est responsable en cas de dégâts causés par l’IA ?
Un défi majeur est de déterminer qui est responsable lors de dégats causés par un service ou un appareil employant l’IA : si une voiture autonome est impliquée dans un accident, est-ce le conducteur, le concepteur ou le programmeur qui doit être tenu pour responsable ?
Si le concepteur ne peut être tenu pour responsable, cela risque de ne pas l’encourager à proposer un produit ou un service de qualité, ce qui entrainerait les gens à ne plus faire confiance à cette technologie. À contrario, la règlementation pourrait devenir trop stricte et étouffer toute innovation.
Les risques par rapport aux droits fondamentaux et à la démocratie
Les résultats produits par l’IA dépendent de la façon dont elle est élaborée et des données qu’elle utilise. L’élaboration et les données peuvent être consciemment ou inconsciemment biaisées. Par exemple, un aspect important d’une question pourrait être exclu de l’algorithme ou celui-ci pourrait être programmé pour reproduire et refléter un biais structurel. De plus, employer des chiffres pour traduire une réalité sociale complexe pourrait faire croire que l’IA est factuelle et précise alors que ce n’est pas le case (un phénomène connu sous le nom de « mathwashing »).
Si elle n’est pas correctement appliquée, l’IA pourrait mener à prendre des décisions à l’embauche basées sur l’appartenance ethnique, le genre, ou l’âge du candidat - voire même lors de procédures pénales.
L’IA pourrait avoir un grave impact sur le droit à la vie privée et sur la protection des données. Elle peut être employée dans des appareils de reconnaissance faciale ou pour profiler ou traquer des personnes en ligne. L’IA peut également combiner différentes données afin de créer une nouvelle donnée sur une personne et donner un résultat inattendu.
Elle pourrait aussi représenter un risque pour la démocratie : on la tient pour responsable de la création des « chambres à écho » sur le web, ne proposant à un individu que du contenu qui lui est agréable, au lieu de forcer la personne à confronter ses idées avec d’autres points de vue contraires.
Elle est également employée dans la création des deepfakes. Ces éléments contribuent à polariser l’espace public et peuvent avoir des conséquences politiques majeures.
L’IA pourrait aussi porter atteinte au droit de rassemblement, puisqu’elle peut être utilisée pour localiser et profiler les individus liés à certaines croyance ou comportements.
Pour éviter les biais, la loi sur l'IA exige que les ensembles de données utilisés pour former l'IA soient aussi complets et exempts d'erreurs que possible. Elle réglemente également l'utilisation de certaines applications de l'IA susceptibles de menacer les droits des citoyens. Par exemple, l'utilisation de systèmes d'identification biométriques par les forces de l'ordre est interdite, sauf dans certains cas étroitement définis.
La loi sur l'IA a également introduit une exigence selon laquelle les images, les contenus audio ou vidéo créés ou manipulés artificiellement, c'est-à-dire les « deep fakes », doivent être clairement et visiblement étiquetés comme tels.
L’influence de l’IA sur l’emploi
Le recours à l’IA dans l’espace de travail pourrait déboucher sur des pertes d’emplois massifs. Même si l’utilisation de l’IA pourrait voir émerger de nouveaux emplois, il faudra se reposer sur une éducation et des formations adaptées afin d’éviter un chômage structurel à long terme s’enraciner.
84 %
des Européens pensent que les robots et l'intelligence artificielle sont des technologies qui nécessitent une gestion rigoureuse.
Concurrence
La collecte de données peut mener à des distorsions de concurrence, puisque les acteurs ayant accès à plus d’informations auront l’avantage face à leurs compétiteurs et pourraient plus aisément les éliminer.
Les risques sécuritaires
Les applications basées sur l’IA en contact physique avec des humains - ou intégrés dans le corps humain - peuvent représenter un risque s’ils sont mal conçus, mal utilisés ou piratés. Une mauvaise règlementation de l’IA dans les armes pourrait entrainer une perte du contrôle humain sur des armes dangereuses.
Défis du point de vue de la transparence
Les déséquilibres face à l’accès à l’information peuvent être exploités. Par exemple, sur base du comportement en ligne d’une personne ou sur base d’autres données et sans que cette personne ne s’en rende compte, un vendeur en ligne peut utiliser l’IA afin de prédire combien cette personne est prête à payer pour un produit ou service. Une campagne politique pourrait utiliser ces mêmes informations pour modifier son message. Un autre défi du point de vue de la transparence survient lorsqu’une personne ne peut pas déterminer si elle est en train d’interagir avec un humain ou une IA.
La loi sur l'IA relève ces défis en réglementant l'utilisation de l'IA afin d'empêcher la manipulation du comportement humain, la tromperie ou l'exploitation des vulnérabilités des personnes.
En savoir plus
- EPRS: Intelligence artificielle : comment fonctionne-t-elle ? Pourquoi est-elle importante ? Que peut-on en faire ? (en anglais)
- EP Think Tank: les avantages de l’intelligence artificielle (en anglais)
- Intelligence artificielle ante portas: réflexions juridiques et morales (en anglais)
-
Commission européenne : Livre Blanc sur l’intelligence artificielle : Une approche européenne axée sur l'excellence et la confiance
s’ouvre dans une nouvelle fenêtre
-
Étude du Conseil de l’Europe: Algorithmes et droits de l’homme (en anglais)
s’ouvre dans une nouvelle fenêtre