Informations Juridiques

Intelligence artificielle : le point de vue du juriste

Digital. L’intelligence artificielle, ou « IA », un sujet qui prend peu à peu toute sa place dans notre quotidien, le juriste n’y faisant pas exception. Pour ce dernier, l’IA est même un fantastique terreau de questionnements et de changements.

Lecture 11 min
Photo d'une balance de justice
(Crédit : Freepik / Image générée par IA)

Que l’on souhaite ou non cette évolution, l’IA ne peut être ignorée. Et ce, d’autant que la première réglementation européenne sur l’intelligence artificielle (IA ACT) vient d’être approuvée par le Parlement européen le 13 mars dernier. La France n’est pas en reste car à cette même date, la Commission de l’intelligence artificielle a remis au Président de la République un rapport contenant 25 recommandations pour appréhender et maîtriser cette technologie.

En quoi consiste l’IA ?

L’IA, c’est « l’ensemble des théories et des techniques mises en oeuvre en vue de réaliser des machines capables de simuler l’intelligence ». Elle donne accès à une autre intelligence capable de composer avec de nombreuses données et de s’adapter en conséquence.

L’IA, un ami ?

De nombreuses utilisations de l’IA sont possibles dans le secteur juridique. En réalité des algorithmes existent déjà pour faciliter les recherches de jurisprudence, des lois et réglementations. Mais l’arrivée de l’IA générative ouvre le champ des possibilités : analyse de documents, révisions de contrats (identification des clauses à risque, incohérences) ; génération automatique de documents ; assistance à la rédaction ; identification des articles de lois, des décisions citées ; création de programmes de formation personnalisés ; chatbots pour les services juridiques ; mise à jour des bases de données etc. Autant d’utilisations qui permettront au juriste d’augmenter sa productivité, en gagnant du temps sur les tâches les plus répétitives et « sommaires », au profit du travail de réflexion intellectuelle et de rédaction adaptée aux attentes et aux besoins de son client. L’IA constitue ainsi un outil d’automatisation utile non seulement pour le suivi, les délais, mais aussi la rédaction.

L’IA, un ennemi ?

Création de dossiers, programmation de rendez-vous, gestion automatique des documents, suivi de facturation, etc. Autant de missions incombant historiquement au métier d’assistant juridique, ou « paralegal ». En transformant le temps, l’IA va transformer le marché du judiciaire, et forcer la réflexion sur le devenir de certains métiers. Concernant la défense des justiciables, domaine généralement dédié aux avocats, de nombreuses Legal-Techs, ces start-up de droit en ligne proposent des solutions numériques : Donotpay ; Casecruncher, etc. L’arrivée et le développement de l’IA générative multiplie les acteurs, mais également les questions : qui est à l’initiative de ces business juteux ? Pas nécessairement des juristes compétents ou même qualifiés. Et que valent les algorithmes utilisés par ces nouveaux logiciels ? Ces nouvelles entreprises ont fait craindre une « ubérisation du droit », la fourniture de services trop simplistes à vil prix...

Un avocat ou une IA ?

L’IA promet des transformations importantes dans la profession d’avocat sans pour autant faire craindre un remplacement complet de cette dernière. L’IA repose sur un principe de proximité sémantique de termes. Elle fonctionne selon une approche probabiliste et va détecter les mots, les images, les données qu’elle a déjà engrangées. Le métier d’avocat ne peut quant à lui se départir d’une dimension humaine très importante, se manifestant par un lien de confiance indispensable entre l’avocat et son client. L’empathie, la stratégie, la défense… autant d’éléments constitutifs d’une intelligence émotionnelle propre à l’humain.

Un juge ou une IA ?

Concernant le prononcé d’un verdict, rôle dédié au juge, la mise en place de solutions reposant sur l’IA est encore timide, et ce notamment parce que les enjeux sociétaux sont importants. En France, la justice est rendue au nom du peuple, et le jugement ne peut s’affranchir du principe démocratique qui fonde le pouvoir de juger. Et si le jugement est tout autant fondé sur le droit que sur les représentations sociales, son autorité se mesure à sa cohérence avec les valeurs communes de la société . Les citoyens sont associés au mécanisme du jugement, lors de procès d’assises et le jury populaire. L’IA pourra difficilement remplacer une intime conviction… Prenons l’exemple de l’Estonie, pays pionnier dans l’utilisation des juges robots.

Dès 2019, a été créé un système dénommé « Estonian e-Justice » permettant de trancher des litiges civils contractuels dont l’enjeu est inférieur à 7.000 euros par des juges robots. Célérité, désengorgement des tribunaux, neutralité… Certains atouts attirants pour les autres pays européens et notamment la France qui souffre d’un manque de moyens et de personnel. Mais force est de constater qu’un recours par l’une des parties demeure examiné par un magistrat humain, et que l’Estonie demeure actuellement un cas isolé.

L’IA, un danger ?

L’IA générative, avec l’accélération rapide des données traitées, peut faire craindre un déferlement de fausse informations et d’hypertrucages « deepfake ». Comment reconnaître les vrais des faux contenus en ligne ? Des chercheurs de l’University College London (UCL) ont recensé vingt activités illégales perpétrées par l’IA , comme le chantage à grande échelle, le détournement de robots militaires, la corruption de données, les drones d’attaque, la reconnaissance faciale, la manipulation de marchés financiers, etc. Mais, comme bon nombre de technologies, le danger principal de l’IA est lié à l’être humain, que ce soit au stade de la conception que de l’utilisation. Les données et les instructions, la construction des algorithmes par les spécialistes d’ingénierie vont avoir une influence sur le modèle de langage appris par la machine. Le marché de l’IA est gouverné par quelques acteurs comme Microsoft, OpenAI, Google.

Comment s’assurer de la partialité et de la fiabilité des données ? Le juriste est sensible au principe du secret : secret des correspondances, de l’instruction, secret professionnel... Sera-t-il préservé face aux bouleversements induits par l’IA ? La protection des données personnelles est également un enjeu majeur. Le Règlement Général sur la Protection des Données (RGPD) en application en Europe depuis 2018 permet d’encadrer le traitement des données personnelles. Le règlement est perçu comme un frein voire un obstacle à certaines recherches ou applications de l’intelligence artificielle. Une complémentarité peut-elle être trouvée ?

L’IA, à encadrer

L’IA ACT ou loi sur l’IA a pour objectif de promouvoir une IA digne de confiance en Europe et au-delà, en veillant à ce que les systèmes d’IA respectent les droits fondamentaux, la sécurité et les principes éthiques et en s’attaquant aux risques liés à des modèles d’IA très puissants et percutants. Les nouvelles règles établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l’IA. Le raisonnement se veut pragmatique, en fonction des usages détectés. Quatre niveaux de risque sont définis : risque inacceptable, risque élevé, risque limité, risque minimal.

Plus les risques sont élevés, plus les obligations sont importantes. Certains systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. C’est le cas du « scoring social » ou de la reconnaissance faciale. Les systèmes d’IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque. Le juriste sera attentif à certains secteurs tels que l’emploi, la gestion des travailleurs et l’accès au travail indépendant, ou encore l’administration de la justice et les processus démocratiques (par exemple, solutions d’IA pour rechercher des décisions de justice). Tous les systèmes d’IA à haut risque seront évalués avant leur mise sur le marché et tout au long de leur cycle de vie. Le cadre réglementaire comporte globalement des exigences de transparence.

C’est le cas pour l’IA générative, comme ChatGPT, qui devra se conformer à cette obligation de transparence et à la législation de l’UE sur le droit d’auteur (indiquer que le contenu a été généré par l’IA, concevoir le modèle pour l’empêcher de générer du contenu illégal, publier des résumés des données protégées par le droit d’auteur utilisées pour la formation). L’Office européen de l’IA a été créé en février 2024 pour superviser l’application de la loi sur l’IA. De son côté la Commission Nationale de l’Informatique et des Libertés (CNIL) soutient que le développement de systèmes d’IA est conciliable avec les enjeux de protection de la vie privée et a publié un plan d’action pour un déploiement de système d’IA respectueuse de la vie privée des individus. L’encadrement, un levier indispensable pour une IA de confiance. Le juriste a donc de beaux jours devant lui…