L’utilisation de l’IA dans l’Union réglementée
Dans le cadre de sa stratégie numérique, l’UE souhaite réglementer l’intelligence artificielle (IA) pour garantir de meilleures conditions de développement et d’utilisation de cette technologie innovante. En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l’UE pour l’IA. Il propose que des systèmes d’IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu’ils présentent pour les utilisateurs. Les différents niveaux de risque impliqueront plus ou moins de réglementation.
Une fois approuvées, ces règles seront les premières au monde sur l’IA. La priorité du Parlement est de veiller à ce que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. Les systèmes d’IA devraient être supervisés par des personnes plutôt que par l’automatisation, afin d’éviter des résultats néfastes. Le Parlement souhaite également établir une définition uniforme et neutre sur le plan technologique de l’IA qui pourrait être appliquée aux futurs systèmes d’IA.
Différents niveaux de risque
Les nouvelles règles établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l’IA :
- Risque « inacceptable » : les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Ils comprennent la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques comme, par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants ; un score social ; une catégorisation et une identification biométrique des personnes ; des systèmes d’identification biométrique en temps réel et à distance, tels que la reconnaissance faciale. À noter que certaines exceptions peuvent être autorisées à des fins d’application de la loi : les systèmes d’identification biométrique à distance « en temps réel » seront autorisés dans un nombre limité de cas graves, tandis que les systèmes d’identification biométrique à distance a posteriori, où l’identification a lieu après un délai important, seront autorisés à poursuivre des crimes graves et seulement après l’approbation du tribunal.
- Risque « élevé » : les systèmes d’IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque. L’IA générative, comme ChatGPT, devrait se conformer aux exigences de transparence.
- Risque « limité » : les systèmes d’IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Après avoir interagi avec les applications, l’utilisateur peut alors décider s’il souhaite continuer à l’utiliser. Cela inclut les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo (par exemple, les deepfakes, des contenus faux qui sont rendus crédibles par l’IA).
Le texte devra maintenant être formellement adopté par le Parlement et le Conseil pour entrer en vigueur.