Lexbase Avocats n°353 du 5 décembre 2024 : Intelligence artificielle

[Dossier spécial] Décryptage de l’IA appliquée au Droit - Intelligence artificielle, État de droit et œuvre de justice : regard prospectif sur l’évolution de la justice à l’ère de l’hyperindividualisme et de la transition numérique

Lecture: 16 min

N0975B3I

Citer l'article

Créer un lien vers ce contenu

[Dossier spécial] Décryptage de l’IA appliquée au Droit - Intelligence artificielle, État de droit et œuvre de justice : regard prospectif sur l’évolution de la justice à l’ère de l’hyperindividualisme et de la transition numérique. Lire en ligne : https://www.lexbase.fr/article-juridique/112861575-dossier-special-decryptage-de-lia-appliquee-au-droit-intelligence-artificielle-etat-de-droit-et-uvre
Copier

par Yannick Meneceur, Magistrat, Maître de conférences associé à l’Université de Strasbourg, Chercheur associé au CRLD et Doctorant à l’Université de Paris-Saclay.

le 05 Décembre 2024

Le présent article est issu de notre dossier spécial consacré au "Décryptage de l’IA appliquée au Droit".

Yannick Meneceur, magistrat, maître de conférences associé à l’Université de Strasbourg, chercheur associé au CRLD et doctorant à l’Université de Paris-Saclay – Auteur de L’intelligence artificielle en procès (Bruylant, 2020, prix du Cercle Montesquieu 2021) et de Intelligence artificielle générative et professions du droit (LexisNexis, 2024, à paraître) a accepté de nous livrer son regard prospectif sur l’évolution de la justice à l’ère de l’hyperindividualisme et de la transition numérique.

Il nous rappelle les bénéfices et les risques des divers systèmes d’intelligence artificielle débattus et opposés en profondeur, notamment à l’occasion de l’adoption de textes juridiques contraignants au niveau européen en 2024, mais sans pour autant toujours parvenir à éclairer de manière convaincante la nature intrinsèque de cette technologie. L'étude se propose de traiter, de manière prospective et concrète, des effets de l’introduction de cette technologie en matière de règlement de litiges. Il n'est pas question de délimiter les frontières entre de bons ou de mauvais usages pour la justice, mais de rappeler que l’une des caractéristiques de cette technologie est de produire des effets normatifs, entrant potentiellement en concurrence avec le droit et les institutions y étant attachées.

 

Le sommaire de ce dossier est à retrouver en intégralité ici.


 

Si « l’IA [1] » fait depuis le début des années 2010 l’objet d’un très vif engouement pour ses promesses sans cesse renouvelées [2], elle fait, dans le même temps, l’objet de sévères critiques pour les très nombreux risques qu’elle ferait peser sur notre société. L’adoption en 2024 de textes juridiquement contraignants au niveau européen [3] pour en réguler les usages constitue l’une des réponses les plus significatives à ces préoccupations. Toutefois, pour les profanes, les discussions paraissent trop souvent se polariser entre néo-Anciens et pseudo-Modernes, opposant des « croyances » au lieu de s’appuyer sur la simple objectivité des faits.

Parmi ces faits, souvent têtus et sous-estimés, se trouvent pourtant des questions essentielles qui touchent au fonctionnement le plus profond de nos sociétés. Il pourrait ainsi être évoqué l’examen détaillé de l’affordance [4](potentialités) de cette technologie qui permet pourtant de dissiper la confusion, trop souvent réalisée, entre la polyvalence des applications de « l’IA » et leur  prétendue neutralité en tant qu’outils.  Car, les algorithmes, de manière générale, ne sont pas neutres ; il n’est pas seulement question d’un bon ou d’un mauvais usage. Ils emportent une part incompressible de normativité qui a pu être décrite par les concepts de « gouvernementalité algorithmique [5] », « d’algocratie [6] » ou « d’État des algorithmes [7] », et qui mettrait en danger l’État de droit, au gré de ce qui a pu être qualifié de « coup data [8] » ou de « tech coup [9] ». Des auteurs y perçoivent même la fin du politique, car les technologies numériques comme « l’IA » chercheraient à en remplir les promesses sans en adopter les modalités [10].  

Même s’il convient bien de ne pas céder à un alarmisme excessif sur un plan individuel, il n’est pas déraisonnable de considérer sur un plan collectif, dans une démarche rigoureuse et prospective, les inévitables évolutions de l’une de composante les plus centrales de l’État de droit : l’œuvre de justice elle-même. Est-ce que ce mécanisme de régulation aux équilibres devenus si subtils continuerait à faire sens, alors que la primauté du droit est remise en doute comme clé de voûte de l’organisation de nos sociétés ? Avec la masse de données accumulées et le niveau de sophistication algorithmique que nous avons atteint, le calcul ne deviendrait-il pas une modalité plus efficace, rapide et non conflictuelle pour imposer une solution à un litige ?

Pour chercher à esquisser quelques premières pistes de réflexion, il peut être repris le fil de l’histoire, de l’avènement de l’individu et de l’État de droit jusqu’aux dernières évolutions contemporaines.

I. L’émancipation de l’individu et l’avènement de l’État de droit

L’Autoportrait en fourrure ou l’Autoportrait à la pelisse d’Albrecht Dürer, peint en 1500, est souvent présenté comme l’une des toutes premières affirmations, au tournant du Moyen Âge et de la Renaissance, de l’individu. Dans une figure christique préfigurant nos selfies, le peintre affirme l’être humain pour lui-même et marque le tout début de la transformation de la vision du monde, architecturant nos sociétés actuelles. 

La Réforme de l’église, les Lumières et les régimes juridiques occidentaux contemporains placeront progressivement l’individu et l’autonomie de sa volonté au centre d’un tout nouveau pacte social. Ce sont bien aujourd’hui des règles strictes, générales et impersonnelles de portée collective qui garantissent la protection des intérêts individuels, notamment au travers de textes de haut niveau comme la Convention européenne des droits de l’Homme. 

Faisant leur chemin au travers des multiples contractions de l’histoire, les droits humains, la démocratie et l’État de droit ont fini par imposer leur temporalité au soutien de l’émancipation de l’individu.   

II. La primauté de l’individu contre l’État de droit

Loin de s’en arrêter à ces progrès, l’affirmation de la primauté de l’individu s’accélère encore aujourd’hui jusqu’au vertige, portée par les nouvelles opportunités offertes par le numérique. Nés de la généralisation de l’Internet, les réseaux sociaux ont en effet autant bouleversé la manière de fabriquer des opinions que les mass media au XXème siècle. La massification des échanges et l’abondance de l’information n’ont pas conduit au saut qualitatif et universaliste tant fantasmé par la contre-culture californienne des années 60-70 [11]. La recherche permanente de publicité magnifiée de sa personne, démultipliant avec une force inédite l’expression de soi de Dürer, a plutôt installé une ère des égos n’ayant rien d’un âge d’or éclairé d’un « vivre ensemble ».

Sur les réseaux, les débats se polarisent au gré d’algorithmes avides de l’attention des utilisateurs et laissant apparaître l’émergence d’une forme moderne de Bellum omnium contra omnes. La stigmatisation de l’autre, l’opposition sans contre-projet concret et l’indignation de l’instant dominent les argumentaires au détriment de l’éclairage de la complexité des choses, des paradoxes et des injonctions contradictoires de notre époque. En d’autres mots, l’idéal démocratique nourri par la contradiction fertile des débats d’idées et la recherche, en réponse, d’un consensus d’intérêt général ne paraissent plus en mesure de faire émerger des solutions pour réduire des inégalités toujours aussi criantes. L’histoire même et les faits avérés sont réécrits à la lecture des subjectivités et des stratégies d’influence à court terme.

Le succès de « l’IA » comme outil de prise décision est à lire dans cet exact climat. Alors que tout devient relatif pour des citoyens désenchantés et désengagés d’institutions perçues comme dysfonctionnelles, il devient de plus en plus courant d’entendre que la société serait probablement rendue plus juste par une mathématisation de ses processus décisionnels, même les plus sensibles. La disponibilité de « l’IA » est l’occasion d’assumer une défiance à l’encontre du droit comme instrument central d’organisation sociale, en y préférant des micro-mécanismes circonstanciels, instantanés et efficaces. 

III. Vers l’hyperpersonnalisation de la résolution des litiges ?

Nombre d’individus attendent aujourd’hui, en tout domaine, des décisions sans délai et sur mesure, aussi précises que leur profil de cible publicitaire de Google ou de Facebook pourraient l’être. La statistique et les probabilités, pourtant si difficiles à manier et à interpréter, sont devenues à la faveur de la vulgarisation des algorithmes d’apprentissage automatique les instruments idéaux d’une société qui pourrait préférer à toute forme de délibération des décisions contingentes, représentatives des équilibres de l’instant, ne servant que les parties en présence. Dans un contexte sociotechnique rendant possible cette hyperpersonnalisation, à quoi bon continuer de maintenir une très coûteuse fonction de juger interprétant des règles de droit générales critiquées tant sur la forme (l’inflation législative) que sur le fond (des règles étant le résultat de consensus ne satisfaisant en réalité personne) ? En pleine confusion entre corrélation et causalité [12], pourquoi continuer de rechercher des causes et à imputer des responsabilités si l’on parvient à induire de grands jeux de données hétéroclites des indemnisations tout à fait acceptables pour les parties en présence ? 

L’ambition aurait pu paraître totalement déraisonnable il y a quelques décennies. Mais la progressive constitution d’un jumeau numérique de notre entière société, manipulable et calculable à l’envi, établit les fondements d’une telle réalité. Et nous sommes déjà contemporains des prémices de cette possible dystopie : les larges modèles de langage ont le potentiel de massifier dans le même temps la production d’écritures judiciaires et la réponse à ces écritures. Somme toute, une justice où les machines se parleraient entre elles au travers d’humains cédant progressivement au biais d’automatisation.

Certains auteurs dénoncent déjà la machinisation de nos institutions, assimilant la bureaucratie en un immense logiciel impossible à gouverner [13]. La perspective de l’implémentation d’automatismes de plus en plus invasifs dans les processus de décision judiciaire pourrait être encore plus radicale : réduite à sa portion congrue d’arbitrages des équilibres entre des principes de haut niveau, potentiellement paramétrables dans des algorithmes, la « justice humaine » délaisserait le traitement de la masse des litiges à une « justice numérique », composée d’une masse de petits algorithmes produisant en un clic des propositions d’indemnisation. L’acceptabilité sociale d’un tel projet est déjà bien implantée dans les esprits : l’idée qu’il ne vaudrait peut-être mieux être moins bien indemnisé maintenant plutôt que potentiellement très bien indemnisé dans des années n’est plus incongrue [14]. Il est d’ailleurs très révélateur de constater qu’aujourd’hui, dans la confidence des salles de pas perdus, nombre de professionnels du droit eux-mêmes ne souhaitent pas avoir affaire avec les tribunaux pour régler un litige.

IV. Un transfert de gouvernance installant un totalitarisme au vernis cool et au fonctionnement chaotique ?

Le glissement décrit nous conduit à une interrogation tout à fait centrale, celle du transfert de gouvernance : qui déterminerait alors les équilibres de tels algorithmes décisionnels ? Les ambitions d’entreprises majeures comme GoogleMetaMicrosoft ou OpenAI (pour ne citer qu’elles), qui inspirent tant de startups et de legaltechs, nous offrent des premiers éléments de réponse. Les dirigeants de ces entreprises portent au grand jour depuis des décennies un projet de société libertarien, dynamitant toute forme d’État et imposant leurs valeurs. Rappelons-nous du slogan de Google, abandonné depuis : « Don’t be evil » (Ne soyez pas malveillants). Mais est-ce que l’industrie numérique est légitime, en dehors de tout mandat démocratique, à imposer ainsi ses visions et ses valeurs ? Visions et valeurs d’ailleurs de plus en plus politisées, soutenant sous le vernis d’un discours cool et disruptif des projets aux relents tout à fait totalitaires [15].

De citoyens, unis par un pacte social commun et solidaires dans leur destin, nous deviendrions donc progressivement, et avant tout, des consommateurs hyperindividualistes, composant au gré de nos besoins et de nos humeurs la mosaïque d’applications organisant notre quotidien. Chacun en arriverait ainsi à dépendre non pas du droit interne d’un État dont la cohérence serait garantie par un système judiciaire, mais plutôt d’un patchwork contractuel composé de la juxtaposition des conditions générales d’utilisation des logiciels employés et des mécanismes internes de résolution de litiges y étant attachés. Achats de biens et services, actes médicaux, transports, loisirs, informations, choix d’un partenaire de vie : tous les pans de notre vie pourraient être intermédiés via des plateformes possédant leurs propres instances régionales ou mondiales. Le comité de surveillance (oversight board) de Meta n’installe pas autre chose que cela.

Or, accepter des conditions générales d’utilisation n’emporte en réalité que l’illusion du consentement : l’asymétrie est totale pour des entreprises abusant sans état d’âme de leurs positions dominantes[16]. De plus, ainsi disloquée et atomisée, une telle société ne laisserait progressivement plus d’espace pour une œuvre de justice indépendante, impartiale et garantissant l’intérêt général. Somme toute, cet « État des algorithmes » nous conduirait certainement plus vers le chaos [17] d’un individualisme forcené qu’à un Big Brother centralisé unifiant les comportements et la pensée. 

*

Voilà pourquoi saisir l’affordance d’une technologie comme « l’IA » et les champs du possible qu’elle ouvre importe : comme, très probablement, tout ce qui pourra être fait techniquement le sera[18], les professionnels du droit devraient investir avec beaucoup de discernement les transformations en cours [19]

La question se pose d’ailleurs moins au niveau de l’expérience individuelle vécue (comme c’était déjà le cas avec l’informatique, où l’on a concrètement gagné du temps en passant de la machine à écrire au traitement de texte) qu’à un niveau collectif. C’est à ce niveau plus global qu’il peut être mis en évidence les tensions entre les principes de haut niveau organisant et protégeant nos sociétés démocratiques, qui n’ont rien d’obsolète, et les ambitions de divers et puissants opérateurs économiques de l’industrie numérique, pour qui le droit n’est qu’une externalité parmi d’autres.

Céder inconditionnellement à une justice mathématisée et à une société algorithmisée n’a donc rien d’une posture « moderne » : même si certains manifestent avec un brin d’arrogance leur sentiment d’être du côté du sens de l’Histoire, il s’agirait plutôt d’une manifestation assez radicale et réactualisée d’antihumanisme [20], amnésique des acquis des Lumières et des combats contre les diverses formes de totalitarisme. 

À retenir : 

  • Dans  un contexte sociétal d’hyperindividualisme et de désenchantement des institutions, les systèmes d’intelligence artificielle installent une nouvelle forme de normativité, tendant à substituer à l’interprétation du droit des modalités sophistiquées de calcul.
  • De manière prospective, il pourrait être craint une atomisation progressive de la fonction de justice au profit d’une multiplicité de dispositifs sectoriels autonomes, produisant des décisions contingentes, représentatives des équilibres de l’instant et ne servant que les parties en présence.
  • Si l’adoption de ces systèmes d’intelligence artificielle par les professions du droit devrait s’opérer sans alarmisme excessif à un niveau individuel, un important discernement reste indispensable sur un plan plus collectif, afin de ne pas fragiliser les fondations de notre État de droit.
 

[1] Afin de se garder de tout anthropomorphisme et par commodité éditoriale, le terme d’intelligence artificielle sera présenté sous la forme de son acronyme et entre guillemets. Cette présentation a été choisie en remplacement des termes, plus appropriés, de « systèmes d’intelligence artificielle » ou « d’applications de l’intelligence artificielle ».

[2] Sur le rôle de « l’IA » dans la compétitivité européenne, V., V. Malingre, Le cri d’alarme de Mario Draghi sur l’économie européenne, condamnée à « une lente agonie » si elle ne change pas, Le Monde, 9 septembre 2024 [en ligne] (consulté le 11 septembre 2024).

[3] Règlement (UE) n° 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/203, (UE) n° 2018/858, (UE) n° 2018/1139 et (UE) n° 2019/2144 et les Directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle) N° Lexbase : L1054MND et Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle et les droits de l’Homme, la démocratie et l’État de droit (STCE n°225)

[4] L’affordance est un concept qui a été proposé par le psychologue américain James Gibson dans les années 1960. Il qualifie la faculté des êtres vivants à guider leurs actions selon ce que l’environnement offre en termes de potentialités d’actions. L’affordance est, comme l’exprime James Gibson : « une structure relationnelle multiface entre un objet/une technologie et l’usage et les comportements que celui-ci permet ou contraint dans un contexte donné ».

[5] A. Rouvroy et T. Berns, Gouvernementalité algorithmique et perspectives d’émancipation : Réseaux, 2013/1, n°177, 2013, pp163-196.

[6] P. Gueydier, Pouvoir régalien et algorithmes, vers l'algocratie ? , Optic, 2018.

[7] Y. Meneceur, L’intelligence artificielle en procès – Plaidoyer pour une réglementation internationale et européenne, Bruylant, 2020 et R. Batko, J. Kreft, The Sixth Estate – The Rule of Algorithms, Problemy Zarzadzania, University of Warsaw, Faculty of Management, vol. 15(68), 2017, pages 190-209.

[8] A. Basdevant, J-P. Mignard, L’empire des données, Essai sur la société, les algorithmes et la loi, Don Quichotte, 2018.

[9] M. Schaake, The Tech Coup: How to Save Democracy from Silicon Valley, Princeton University Press, 2024.  

[10] A. Garapon, J. Lassègue, Justice digitale - Révolution graphique et rupture anthropologique : PUF, 2018, p. 90.

[11] Sur l’histoire de la contre-culture américaine et de son influence sur l’émergence du web, V. par exemple D. Cardon, Culture numérique, Presses de SciencePo, 2019, p. 46-55.  

[12] Dans un autre registre, il peut être rappelé l’article de Chris Anderson qui avait prophétisé la fin de la théorie scientifique avec l’avènement du Big Data : Ch. Anderson, The End of Theory : The Data Deluge Makes the Scientific Method Obsolete, Wired, 23 juin 2008, [en ligne] (consulté le 13 septembre 2024).

[13] A. Billon, Sous le règne des machines à gouverner, le droit entre intelligence artificielle et intelligence naturelle, Bruylant, 2022.

[14] De manière générale entre 2020 et 2023, la confiance dans la justice en France a reculé, passant de 51 % de répondants ayant confiance à 43 % [en ligne] (consulté le 15 septembre 2024).

[15] D. Gilbert, Trump’s New Silicon Valley Supporters Really Want You to Forget He Called Nazis ‘Fine People’, Wired, 23 août 2024 [en ligne] (consulté le 13 septembre 2024).

[16] A. Farache, Google Shopping : l’abus de position dominante et l’amende de 2,4 milliards d’euros confirmés, Actu-juridique.fr, 11 septembre 2024 [en ligne] (consulté le 12 septembre 2024) 

[17] Sur le fait qu’un chaos nait plutôt de la somme des mécanismes algorithmiques, V. M. Hildebrandt, Smart technologies and the end (s) of law: novel entanglements of law and technology, Edward Elgar Publishing, 2015.

[18] « Loi de Gabor » : Dennis Gabor, prix Nobel de physique en 1971, avait déclaré « ce qui peut être fait doit l’être, inéluctablement », caractérisant que tout ce qui était techniquement faisable par l’humain serait réalisé, même contre la morale ou l’éthique.

[19] En contre-exemple, V. la vision de Richard Susskind, qui envisage un modèle pour des tribunaux totalement dématérialisé, inspirant nombre de travaux au-delà du Royaume-Uni. R. Susskind, The Future of Courts, Harvard Law School, Juil./août 2020 [en ligne] (consulté le 15 septembre 2024).

[20] Sur la posture antihumaniste résultant de l’émergence de « l’IA », V. par exemple E. Sadin, L’intelligence artificielle ou l’enjeu du siècle, Anatomie d’un antihumanisme radical, L’échappée, 2018.

newsid:490975

Cookies juridiques

Considérant en premier lieu que le site requiert le consentement de l'utilisateur pour l'usage des cookies; Considérant en second lieu qu'une navigation sans cookies, c'est comme naviguer sans boussole; Considérant enfin que lesdits cookies n'ont d'autre utilité que l'optimisation de votre expérience en ligne; Par ces motifs, la Cour vous invite à les autoriser pour votre propre confort en ligne.

En savoir plus