Lexbase Avocats n°353 du 5 décembre 2024 : Intelligence artificielle

[Dossier spécial] Décryptage de l’IA appliquée au Droit - Vers une intelligence juridique artificielle ou comment l'IA transforme les professions juridiques

Lecture: 31 min

N0988B3Y

Citer l'article

Créer un lien vers ce contenu

[Dossier spécial] Décryptage de l’IA appliquée au Droit - Vers une intelligence juridique artificielle ou comment l'IA transforme les professions juridiques. Lire en ligne : https://www.lexbase.fr/article-juridique/112909750-dossier-special-b-decryptage-de-lia-appliquee-au-droit-b-vers-une-intelligence-juridique-artificiell
Copier

par Etienne Vergès et Géraldine Vial

le 05 Décembre 2024

Le présent article est issu du dossier spécial "Décryptage de l’IA appliquée au Droit".

Etienne Vergès, Professeur à l’Université Grenoble Alpes et Géraldine Vial, Maître de conférences à l’Université Grenoble Alpes ont menés des travaux, en collaboration avec le département Recherche et documentation de l’ENM, sur l’impact des algorithmes sur les décisions de justice des magistrats, au pénal et au civil.

Ils nous proposent dans cette contribution un parcours initiatique dans le monde réel de l’intelligence artificielle, du juriste "assisté" au juriste "augmenté".

 

Le sommaire de ce dossier est à retrouver en intégralité ici.


 

 

À la fin de l’année 2021, on pouvait lire dans différents titres de la presse internationale [1] que des scientifiques chinois avaient créé une intelligence artificielle capable d’exercer des poursuites pour huit délits. Le système se fonderait sur des critères incluant la qualité des preuves ou la dangerosité du suspect pour orienter la procédure. Au mois de janvier 2023, un site internet américain intitulé DoNotPay annonçait qu’il allait proposer à ses utilisateurs un service de conseil juridique susceptible d’aider les justiciables à répondre aux questions d’un juge durant une audience pénale [2]. Depuis 2019, on trouve sur le site Amazon.com, la commercialisation d’une application dénommée Kids Court couplée avec l’enceinte connectée Alexa. Cette application permet à Lexy, une juge virtuelle, de régler des conflits familiaux en tenant audience, en organisant la présentation des preuves et en écoutant les réquisitoires et plaidoiries des parties. Cette intelligence artificielle rend des verdicts et prononce des sanctions. Certes, il s’agit d’une application cabotine – qui condamne un mari, car il préfère les frites froides ou qui sanctionne une sœur parce qu’elle aurait cassé un jouet – mais sa commercialisation montre plus sérieusement que l’IA est aujourd’hui en mesure de simuler une audience, depuis la plainte jusqu’à la sentence.

Depuis quelques années, l’IA s’est immiscée dans le monde des professions juridiques et elle est en train de bouleverser cet univers par ses applications disruptives. L’IA fascine autant qu’elle effraie. Certains annoncent la disparition des professions juridiques, alors que d’autres jurent que l’IA ne pourra jamais les remplacer. Loin des controverses et des coups d’éclat, loin des discours péremptoires et alarmistes sur les dangers de l’IA, les legaltechs croissent et se multiplient. 

Dans cette étude, nous proposons un parcours initiatique dans le monde réel de l’intelligence artificielle. Ce monde est en construction, mais il a déjà connu des révolutions. Les premières entreprises qui ont développé des outils de quantification de l’aléa juridictionnel ont particulièrement marqué les esprits et ouvert le débat sur la possibilité de prédire des décisions de justice. Ainsi, en 2016, la justice prédictive symbolisait le renouveau de l’usage de l’intelligence artificielle en matière juridique [3], mais elle l’enfermait également dans un univers cloisonné. Si certaines entreprises parviennent à créer des modèles prédictifs précis, de nombreuses tentatives échouent devant l’ampleur de la tâche. On se souvient ainsi de l’arrêt du projet public Datajust, qui visait à créer un outil d’évaluation des préjudices corporels [4]. En marge des premières applications commerciales, la Cour de cassation a conduit un ambitieux projet de pseudonymisation des décisions de justice, qui a débouché sur la création d’une IA performante [5]. Dans le même temps, l’institution a développé avec succès un algorithme qui permet d’orienter les pourvois devant les différentes chambres civiles de la Cour en se fondant sur des extraits de texte issus des mémoires ampliatifs [6].

L’apparition des agents conversationnels à la fin de l’année 2022 a constitué une véritable rupture dans le développement de l’IA juridique. Jusqu’à cette période, les techniques d’IA étaient utilisées pour analyser du texte, rechercher des informations ou établir des liens entre des documents. Dans les cas les plus ambitieux, ils permettaient de modéliser les processus de décision des juges. Avec l’irruption de ChatGPT, puis de ses concurrents, les facultés de l’IA générative ont permis d’envisager des tâches plus diversifiées, basées sur la rédaction de contenus textuels.

En quelques mois, des start-ups ont fait leur apparition, les legaltechs déjà installées ont développé leurs propres outils et les grands éditeurs juridiques ont imaginé une nouvelle manière d’exploiter leurs immenses fonds documentaires. On dénombre aujourd’hui plus d’une dizaine de legaltechs françaises qui utilisent l’IA générative au service des professionnels du droit. À titre d’exemple, on peut citer « Assistant » de Predictice,JiminiAIOrdalieDoctrineLegiGPT, sans oublier les outils d’IA développés par les grands éditeurs juridiques (GenIAL de Dalloz, LexisAI de LexisNexis ou JP Intelligence de Lexbase). Les différentes plateformes ne proposent pas toutes les mêmes fonctionnalités et certaines sont plus spécialisées : HyperLexTomoro ou Leewaysont dédiées à la rédaction et la gestion de contrats, tandis que Jarvis Legal est spécialisée dans la gestion des cabinets d’avocats, LegalStart dans la création d’entreprises, JusMundi dans le droit international et l’arbitrage et GoodLegal dans la rédaction de fiches d’arrêts et autres exercices juridiques pour les étudiants des facultés de droit. 

L’IA générative a conduit à une explosion de services juridiques très différents, qui sont venus concurrencer ceux existants. Ces outils peuvent être classés dans deux grandes catégories. Certains ont pour fonction de réaliser des tâches juridiques à la place des juristes. Ils jouent ainsi un rôle d’assistants (I). D’autres outils ont des objectifs plus ambitieux, qui consistent à offrir aux juristes des informations qu’ils ne peuvent rechercher par eux-mêmes. Il est alors possible de parler, au sens strict de « juriste augmenté » (II).  

I. Le juriste assisté par l’IA

Nous présentons ici des tâches très courantes qui sont développées actuellement par des systèmes d’IA. 

Analyser des contrats

Les premières tentatives d’analyse des contrats ont été rendues publiques par une entreprise israélienne appelée Lawgeex, qui a développé un outil de lecture et d’analyse des contrats commerciaux courants (accords de confidentialité, prestations de service, achats). Cette entreprise s’est fait connaître en 2018 en publiant les résultats d’une compétition qu’elle avait organisée entre son outil d’IA et vingt juristes. Chacun devait analyser trente clauses standards dans plusieurs accords de confidentialité et en extraire le sens. Par exemple, il s’agissait d’identifier la loi applicable, de définir les informations couvertes par la confidentialité ou encore le régime de responsabilité [7]. L’IA s’est illustrée avec brio dans cette compétition, en obtenant un taux de réussite plus élevé que le taux moyen des juristes pour chacun des contrats (91 % à 100 % contre 83 % à 86 %). Rappelant la victoire de Deep blue sur Garry Kasparov et celle d’AlphaGo contre Ke Jie [8], le match de Lawgeex ravivait l’idée que l’IA était susceptible de réaliser des tâches intelligentes mieux que les humains. Cette victoire de l’IA juridique fut importante, car elle confortait l’idée que l’activité des juristes était, au moins pour partie, délégable à des systèmes automatisés. Elle demeurait relative, car les fonctions de Lawgeex se limitaient, à cette époque, à la lecture de documents juridiques et à la restitution de leur contenu. 

Un projet académique mené au European University Institute en Italie illustre les avancées de l’IA en matière d’expertise juridique. Ce projet dénommé Claudette [9], porte sur l’analyse juridique de clauses issues des conditions générales d’utilisation de services numériques courants, tels que GoogleFacebook ou Twitter. L’objectif de ce projet consiste à détecter des clauses illicites dans les contrats. Fondé sur une phase d’annotation humaine, Claudette apprend à relier certaines expressions (ou phrases) du langage juridique à une cause d’illicéité. Par exemple, l’IA est capable d’identifier une clause limitative de responsabilité et de lui associer un degré d’illicéité. L’intérêt du projet Claudette réside dans la capacité de l’IA à produire une opinion juridique sur un texte, simulant ainsi une activité humaine relevant de la compétence des juristes.

Identifier les décisions de justice pertinentes

La recherche de jurisprudence est une tâche intimement associée à l’intelligence juridique. Durant plusieurs siècles, cette tâche a été réalisée à la main, sur la base d’index de revues. Seuls étaient visibles les arrêts publiés ou commentés. L’informatique juridique a permis de développer à la fois le contenu des bases de jurisprudence, mais également la recherche booléenne, utilisant mots clés et opérateurs (et/ou). L’open data des décisions de justice, issue de la loi pour une république numérique, [10] a transformé le paysage jurisprudentiel. En ouvrant l’accès aux décisions des juridictions du fond, cette loi a redéfini la fonction même de la publication des décisions de justice. À côté des arrêts faisant jurisprudence, apparaissent les décisions ordinaires, qui présentent des similarités avec l’affaire dont un avocat ou un juge est saisi. L’idée qu’une situation similaire appelle une décision similaire est très prégnante dans l’univers juridique. L’effet de « précédent » n’est pas seulement une règle réservée à la Common law. Il s’agit d’un réflexe juridique, somme toute assez naturel. Tout juge peut-être amené à s’appuyer sur des décisions précédentes pour rendre son propre jugement. L’effet de précédent est à la fois porté par l’idée d’un traitement égal des justiciables, mais également par une volonté d’harmoniser les décisions de justice. 

 Toutefois, la question demeure pour un professionnel du droit, de savoir comment identifier et extraire une décision similaire dans une masse disponible de plusieurs millions de jugements et d’arrêts rendus chaque année. L’IA se révèle ici un assistant utile et potentiellement efficace. Les outils « Décisions similaires » de Dalloz et « JP Intelligence » de Lexbase, poursuivent cet objectif. Le premier sélectionne à partir d’un arrêt les décisions de justice les plus proches. Le second permet à l’utilisateur de décrire les faits de son dossier et d’obtenir une sélection de décisions dont les faits sont proches, avec un indicateur de proximité. Comme c’est le cas pour l’analyse des contrats, l’IA est utilisée pour réaliser une tâche courante et elle le fait plus rapidement et plus précisément qu’un juriste.

Apporter des conseils juridiques 

Le conseil juridique présente un degré de complexité plus élevé que la recherche de contenus juridiques. Cette fonction peut être confiée à des systèmes experts, susceptibles de répondre à des questions très précises, mais très limitées. Par exemple, les systèmes experts du site Service public.fr renseignent les justiciables sur de nombreux domaines du droit en se basant sur un mécanisme de questions/réponses qui conduisent vers l’application d’une règle de droit précise.

L’apparition de l’IA générative a révolutionné le conseil juridique assisté. L’IA se voit confier la tâche d’aller chercher une information dans une base de données juridiques et de formuler une réponse intelligible à la question qui lui est posée. Les prouesses réalisées sont fascinantes, même si elles demeurent aujourd’hui aléatoires. En voici quelques illustrations. 

Au début de l’année 2022, à la suite de l’apparition de ChatGPT, un chatbot juridique nommé LegiGPT a été mis en ligne. Cet outil a assimilé l’intégralité des articles contenus dans les codes français. Interrogé sur la définition de la notion de clause abusive, LegiGPT est capable de définir le sens de cette expression juridique avec des mots simples : « c’est une clause qui désavantage trop le consommateur et qui n’est pas clairement expliquée ». Interrogée plus spécifiquement sur une clause limitative de la responsabilité d’un architecte, l’IA est capable de dire que cette clause « lui semble abusive », car elle « vise à écarter ou limiter la responsabilité de l’architecte ».

Quelques mois plus tard, la société Predictice fut la première à lancer un chatbot qui analyse non seulement l’information issue des sources juridiques, mais encore celle présente en source ouverte sur des blogs juridiques sélectionnés. L’outil s’avère capable de fournir des informations juridiques générales, mais également de traiter des cas particuliers. Par exemple, questionné sur les options qui s’offrent au procureur de la République pour apporter une réponse pénale à une infraction, l’IA énonce les différentes formes de réponse pénale (poursuites, réponses alternatives, etc.). Interrogée sur le cas particulier d’un voleur récidiviste, l’IA estime que le procureur choisirait de poursuivre la personne mise en cause. Elle est également capable d’indiquer que cette option est déterminée par l’état de récidive du suspect. L’IA précise ainsi qu’« une répétition de comportements délictueux peut indiquer que les mesures alternatives aux poursuites ou les compositions pénales précédentes n’ont pas eu l’effet dissuasif souhaité, ce qui pourrait inciter le procureur de la République à poursuivre ». Si la question posée demeure simple, le niveau d’analyse et de raisonnement juridique de l’IA est incontestable. L’IA connaît les règles applicables, elle est capable de les appliquer à un cas concret et elle motive sa décision par un raisonnement convaincant. En d’autres termes, l’IA reproduit ou simule les principales caractéristiques de l’intelligence humaine dans le domaine juridique. Toutefois, en matière d’IA générative, il convient de garder une certaine distance et de ne pas se laisse emporter par la qualité de certaines analyses ou de certains raisonnements. L’IA générative commet, de façon fréquente, de grossières erreurs.

Les erreurs de l’IA Générative

En mai 2023, un avocat new-yorkais a soumis un dossier contenant des références à des affaires judiciaires fictives générées par ChatGPT, sans se rendre compte que ces références étaient inventées [11]. Ces fausses décisions ont été citées dans une affaire concernant une plainte pour blessure corporelle devant le tribunal fédéral de New-York. Lors de l'audience, l'avocat a admis qu'il avait utilisé ChatGPT pour faire ses recherches juridiques et qu’il n'avait pas vérifié les sources fournies par l'IA. Il a été sanctionné par le juge pour manquement à ses devoirs professionnels. Un juge colombien [12] et un juge brésilien [13] ont utilisé cette même IA générative pour rédiger une partie de leurs décisions. Pour le juge brésilien, les erreurs commises par l’IA l’ont conduit devant le Conseil national de justice. Ces affaires ont mis en lumière les dangers de l’utilisation de l’IA dans le domaine du droit sans supervision humaine rigoureuse. Les chatbots, généralistes comme juridiques, présentent en effet des limites qui peuvent affecter leur fiabilité dans les conseils et services qu’ils fournissent.

Les principales lacunes identifiées concernent d’une part, le manque de précision des réponses apportées. Les réponses s’avèrent parfois trop générales et ne permettent pas de résoudre précisément le problème juridique posé. À titre d’exemple, nous avons interrogé un chatbot juridique français sur un problème de droit précis : le mariage d’un mineur. A la question, « le mariage d’un mineur est-il autorisé en droit français ? », il a répondu que « non, le mariage d’un mineur n’est pas autorisé en droit français ». Cette réponse est très générale. Elle n’a pas fait mention de la dispense du procureur de la République qui est une condition permettant la réalisation de ce mariage. Les réponses apportées par l’IA générative peuvent également apparaître contradictoires. Reprenant notre exemple du mariage du mineur, nous avons reformulé la question en demandant au chatbot si le mariage d’un mineur est autorisé, non plus « en droit français », mais simplement « en France ». Sa réponse s’est alors modifiée : le mariage du mineur est devenu possible à la condition d’obtenir le consentement de ses parents et l’autorisation du juge des tutelles. En plus d’être contradictoire au regard de la réponse précédente, cette affirmation est inexacte puisqu’elle confond autorisation du juge des tutelles et dispense du procureur. Cet échange met en lumière l’importance de la formulation de la question posée à l’IA (encore appelée « prompt »).

L’IA peut d’autre part, générer des contenus présentés comme certains, mais manifestement faux. On dit alors que l’IA hallucine, c’est-à-dire qu’elle produit des résultats entièrement fictifs. Dans une étude récente, des chercheurs du Stanford RegLab et de l’Institute for Human-Centered AI [14] ont démontré que les hallucinations des IA sont fréquentes dans le domaine juridique (les taux d’hallucination de GPT 3.5, PaLM 2 et Llama 2 seraient respectivement de 69 %, 72 % et 88 % en réponse à des requêtes juridiques spécifiques). Ces hallucinations ne sont pas réservées aux IA généralistes. Les IA spécialisées dans le domaine du droit et entraînées sur des sources juridiques hallucinent également. Au cours de plusieurs tests que nous avons réalisés sur différents chatbots, nous avons constaté que certaines IA inventent des textes de loi qui n’existent pas, mais qui présente les apparences de textes officiels (date, titre et numérotation crédibles). À l’inverse, d’autres peuvent affirmer qu’un texte ou une disposition législative n’a jamais existé ou a été supprimé, alors qu’il n’en est rien. Par exemple, nous avons demandé à un chatbot de définir la notion de bien par détermination de la loi. La définition apportée était floue et éloignée de la définition légale de l’article 529 du Code civil. Nous avons donc demandé à l’IA de nous indiquer le contenu de cette disposition. En réponse, l’IA nous a affirmé que l’article 529 n’existait pas. Pourtant, cet article n’a jamais disparu du Code civil depuis sa création. L’IA crée ainsi une information vraisemblable, susceptible de faire douter le juriste, mais se révélant en définitive inexacte. 

Nous développons actuellement des procédures standardisées pour évaluer les performances des IA génératives. Ces procédures sont en test avec des étudiants de Master 2 dans le cadre d’enseignements dédiés à la pratique de l’IA. Elles nous permettent de quantifier le niveau de compétence pour fournir des réponses exactes à certaines questions juridiques ou pour effectuer des recherches performantes de jurisprudence. Nous pouvons ainsi constater que la compétence des IA augmente régulièrement. Dans un test récent mené en octobre 2024, une IA a obtenu une moyenne de 15/20 sur une série de plus de trente questions juridiques posées. Après un dialogue entre le juriste et l’IA par l’intermédiaire de prompts, la moyenne s’est encore élevée (proche de 16/20), ce qui signifie que plus l’IA échange avec le juriste, meilleure est la qualité de sa réponse. En recherche de jurisprudence, la moyenne obtenue est plus faible (13.2) et surtout, l’écart de notes est plus élevé (allant de 0 à 20). Cela signifie que l’IA est parfois capable de trouver exactement la décision recherchée, alors qu’elle se révèle d’autres fois incapable d’identifier l’arrêt pertinent. 

Ces premiers tests normalisés décrivent, d’un côté, les progrès considérables réalisés par l’IA dans le domaine de l’apprentissage de la langue juridique et de la génération de textes, et d’un autre côté les limites de ces outils. À l’heure actuelle, les analyses fournies par les IA n’ont d’intérêt que si le juriste humain est en mesure d’en vérifier l’exactitude. L’IA fournit un travail préparatoire précieux dans la recherche d’information et le raisonnement juridique, mais le résultat fourni par l’IA doit rester sous le contrôle de l’humain. C’est la raison pour laquelle les outils les plus efficaces demeurent, pour le moment, ceux dédiés à la rédaction d’actes juridiques. 

La rédaction d’actes juridiques

Les avancées en intelligence artificielle permettent aujourd’hui de concevoir des systèmes capables de rédiger divers actes juridiques, en intégrant une analyse rapide et précise de la jurisprudence, de la doctrine et des éléments de droit applicables. Certaines IA sont spécialement conçues pour élaborer des documents juridiques, plus ou moins complexes, tels que des procès-verbaux d’assemblées générales, des convocations, des clauses spécifiques ou encore des contrats entiers. Les systèmes d’IA générative se montrent efficaces pour créer de toutes pièces des contrats complexes, même s’ils sont très spécialisés. Par exemple, nous avons testé l’outil de génération de contrats d’Ordalie pour créer un contrat de collaboration scientifique entre une université et une entreprise spécialisée en fabrication de lentilles optiques. En quelques secondes, l’outil a créé un contrat contenant huit clauses énumérant les principaux points clés d’une collaboration scientifique : l’objet et la durée de la collaboration, la contribution de chacune des parties (mise à disposition de locaux, de personnels, modalités financières…), le partage des droits de propriété intellectuelle, la confidentialité des informations scientifiques, ainsi que les clauses finales (résiliation, compétence juridictionnelle). L’intérêt de ce type d’outil consiste à fournir une base de travail au juriste qui est plus adaptée qu’un modèle de contrat. D’une part, le chatbot de génération de contrat permet au juriste de préciser ses besoins et d’obtenir en temps réel la modification de certaines clauses. D’autre part, l’IA est capable d’identifier les spécificités de l’opération contractuelle. De sa propre initiative, elle intègre des éléments tels que la fourniture de machines de polissage ou de substrats optiques. En d’autres termes, l’IA est créative. Elle suggère un contenu spécialisé propre au contrat envisagé. L’IA peut encore améliorer sa performance en analysant la base de données de contrats de l’entreprise ou du cabinet d’avocat. Elle peut être installée directement sur les serveurs du client et préserver son secret professionnel en évitant toute fuite de données.

De façon plus ambitieuse encore, dans un article intitulé In AI we trust, Part II [15], Adam Unikowsky, un juriste américain, explore les capacités du chatbot Claude 3 Opus, de trancher des affaires qui ont été portées devant la Cour suprême des États-Unis et de rédiger les décisions. Pour cela, il a soumis à cette IA tous les mémoires et arguments présentés par les parties pour les affaires traitées au cours d’une législature. Claude 3 a ensuite rédigé les décisions, dont 72 % s’avéraient concorder avec celles des juges humains (27 décisions sur 37 cas). Lorsque l’IA divergeait, ses raisonnements apparaissaient néanmoins justifiés et raisonnables. Cet auteur en a conclu qu’avec une formation supplémentaire (par exemple, en lui enseignant l'intégralité de la jurisprudence américaine), cette IA pourrait devenir un assistant efficace pour les juges, en produisant des décisions argumentées en un temps record (environ 5 000 fois plus rapide qu’un humain).

Inspirés par cette expérience, nous avons entrepris une démarche similaire en utilisant l’outil généraliste MistralAI. En lui exposant les faits d’un cas réel de séparation d’un couple, nous lui avons demandé de déterminer la résidence habituelle d’un enfant, ainsi que le droit de visite et d’hébergement de l’autre parent, et de formuler sa réponse sous la forme d’un jugement. Le résultat de cette expérience a été concluant, tant sur le fond que sur la forme. MistralAI a pris une décision qui correspondait à celle du juge humain dans le cas réel de référence : il a non seulement fixé la résidence habituelle de l'enfant de la même manière, mais a également statué sur le droit d’hébergement de l’autre parent en prévoyant un aménagement progressif, comme dans la décision originale. De manière inattendue, le chatbot a aussi statué sur les frais de l'article 700 du Code de procédure civile, bien que cela ne lui ait pas été demandé ; ce qui témoigne de son niveau d’apprentissage et de sa capacité à trancher des prétentions non explicitement formulées. Sur le plan formel, MistralAI a structuré le jugement, en séparant clairement les "motifs" de la décision elle-même, bien que la structure de ce document se distingue de la trame rigoureuse des décisions de justice (faits, procédure, argumentation des parties, motifs, dispositif). Cette expérience ne permet pas de conclure que l’IA rend la même décision que la juridiction saisie. Elle ne garantit pas non plus que le raisonnement juridique de l’IA soit systématiquement juste. En revanche, elle permet d’imaginer qu’avec une étape d’apprentissage suffisante, les systèmes seront capables de rédiger, au moins pour partie, des actes juridiques aussi complexes que des décisions de justice. En particulier, on peut penser que ce type d’outils pourraient être capables de générer la partie non décisionnelle (faits, procédure, argumentations des parties), en laissant au juge le soin de prendre la décision et de la motiver. Une telle perspective montre que les fonctions d’assistance que l’on peut attendre des IA se sont considérablement multipliées en quelques années. Leur usage tend, aujourd’hui, à supplanter les premiers outils dédiés à la quantification de l’aléa judiciaire.

II. Le juriste augmenté : quantifier l’aléa judiciaire

Le renouveau de l’IA dans l’univers juridique est apparu sous la forme d’études académiques ayant recours aux techniques de traitement des langues naturelles (TAL) à des fins de prédiction. En mai 2016, l’une de ces études a fait grand bruit. Des chercheurs sont parvenus, grâce à une méthode de TAL assez élémentaire, à prédire les décisions de la Cour européenne des droits de l’Homme avec une précision allant jusqu’à 79 % [16]. Quelques années plus tard, des chercheurs canadiens sont parvenus à prédire avec une précision de 93,7 % des décisions d’une juridiction spécialisée dans le contentieux des baux d’habitation [17]. Plus proches de nous encore, des chercheurs européens ont réussi à prédire les dispositifs d’arrêt de la Cour de cassation avec une précision de 98,6 %[18]. Ces recherches, si elles affichent des performances étonnantes, doivent être mises en perspective. Ces prédictions reposent sur la fréquence de certains mots ou groupes de mots dans les décisions. Elles ne relient pas à proprement parler, les faits d’une espèce à la décision de justice. Toutefois, elles ont ouvert un champ d’études sur la modélisation des processus de décisions des juges.

Ces travaux ont pris des formes concrètes lorsque des legaltechs ont investi ce champ expérimental pour élaborer des outils capables de quantifier l’aléa judiciaire, autrement dit, d’évaluer les chances de succès d’une action en justice. Predictice, qui a été l’une des premières entreprises à investir le marché, délivre des informations générales sur le taux d’acceptation en justice de différents chefs de jugement. Il est ainsi possible de savoir qu’en matière de caducité du contrat, le taux d’acceptation est jugé élevé, puisque plus de 60 % des demandes sont « acceptées » par les juges. Cet outil met en relation des chefs de prétentions avec des chefs de jugements. Il n'individualise pas les affaires en fonction des caractéristiques propres à chaque espèce (notamment les faits du litige).

Des solutions plus précises ont été développées, notamment par Case law analytics [19] sur plusieurs domaines du droit et, dans le domaine spécialisé des indemnités de licenciement, par Legalquantum [20]. La quantification de l’aléa judiciaire constitue une tâche hautement complexe. Il s’agit de mettre en relation les données factuelles d’une affaire avec les différentes options qui s’offrent au juge. Pour cela, l’apprentissage machine repose sur un travail très précis d’annotation et de structuration des faits à partir de l’analyse, par des personnes humaines, de décisions de justice. Chaque décision est intégrée dans une grille. Par exemple, pour modéliser les décisions rendues en matière de prestation compensatoire, la grille d’analyse doit comprendre des informations sur les revenus des époux, sur leur patrimoine, sur leur âge, ou encore sur les sacrifices professionnels réalisés pendant la durée du mariage. Pour modéliser les décisions sur les indemnités de licenciement, il faut identifier le temps passé dans l’entreprise, le salaire, l’âge du salarié, la taille de l’entreprise, etc.. Le modèle apprend ainsi à partir de plusieurs centaines (et parfois milliers) de décisions de justice, comment les juges tiennent compte de critères factuels pour prendre leur décision. Il est ensuite capable de combiner ces critères et de déterminer les différentes solutions que les juges donneraient à un litige particulier. À chaque solution est associée une probabilité. Par exemple, dans un dossier de prestation compensatoire, l’IA peut déterminer que 30 % des juges seraient susceptibles d’octroyer 22 000 euros à l’époux demandeur, 20 % des juges lui accorderaient 25 000 euros, etc.. L’avocat et son client peuvent alors mesurer leur chance d’obtenir un certain montant. 

Ces modèles d’IA dits « prédictifs » sont susceptibles d’intéresser les professionnels du droit de plusieurs manières. D’abord, il s’agit d’outils d’évaluation des chances de succès d’une prétention. Ils permettent à l’avocat et à son client d’élaborer une stratégie contentieuse ou amiable. Ensuite, les résultats produits par l’IA constituent des instruments essentiels dans la conduite des procédures amiables. L’outil d’IA pose une ligne de partage dans la négociation, qui sert de référence aux parties. Enfin, ces outils peuvent être utilisés à titre d’expertise privée dans des procédures. Les dossiers d’IA peuvent être produits en justice et leur influence s’avère parfois significative, comme l’a montré l’étude que nous avons réalisée à propos de l’impact des algorithmes sur la décision de justice [21].

La quantification de l’aléa judiciaire est une fonction très avancée en matière d’IA. Elle permet aux professionnels du droit d’aborder leurs dossiers avec une approche quantitative. Elle met également en avant le rôle essentiel joué par les faits dans la solution d’un litige. Alors que les raisonnements juridiques traditionnels font la part belle aux règles de droit, l’approche quantitative et probabiliste conduit nécessairement à prendre les faits au sérieux [22], c’est-à-dire à les remettre au premier plan. Toutefois, le travail de préparation des bases de données est fastidieux. Par ailleurs, les chefs de jugement ne se prêtent pas tous à la modélisation et donc à la prédiction. Il est parfois impossible d’établir un lien entre les faits du litige et la décision du juge. Certaines décisions sont peu motivées, d’autres ne sont pas accessibles (non publiées). Les éléments qui déterminent la décision du juge ne figurent pas tous dans les motifs du jugement ou de l’arrêt. Le temps d’annotation des décisions de justice est considérable et il représente un coût important en ressources humaines. La quantification de l’aléa judiciaire est ainsi aujourd’hui limitée à un nombre restreint de domaines juridiques. 

***

En définitive, ce tour d’horizon des grands développements de l’IA dans l’univers juridique montre à la fois les progrès très rapides des technologies et leurs limites. Les outils qui existent sur le marché et les expérimentations réalisées dans le monde académique montrent que les tâches de l’intelligence juridique ne sont pas réservées à l’intelligence naturelle, c’est-à-dire aux personnes humaines. L’IA a déjà fait preuve de ses capacités de simuler des raisonnements humains et de traiter des problèmes juridiques. C’est surtout sur le terrain de la fiabilité que se joue actuellement l’avenir de l’IA. En particulier, pour les acteurs de la Legatech, il faudra rapidement convaincre que l’IA générative est en mesure de délivrer une information systématiquement juste, alors même que cette IA a la réputation d’être « agnostique à la vérité ».  

 

[1] Chinese scientists develop AI ‘prosecutor’ that can press its own charges, South China Morning Post, 26 décembre 2021 [en ligne]. 

[2] Ce service n’a jamais été mis en œuvre, car le créateur de cet outil a été poursuivi en justice pour exercice illégal de la profession d’avocat, lire, IA : le robot-avocat DoNotPay poursuivi en justice pour son absence de diplôme, Les numériques, 13 mars 2023 [en ligne].

[3] A. Garapon, Les enjeux de la justice prédictive, JCP G, p. 31. 

[4] Le ministère de la Justice renonce à son algorithme DataJust, Acteurspublics, 14 janvier 2022 [en ligne].

[5] V., sur le site Github. 

[6] J.-M. Sommer, La Cour de cassation à l’épreuve du numérique et de l’intelligence artificielle, Vie publique, 9 février 2021 [en ligne]. 

[7] V., le site Superlegal. 

[8] L’intelligence artificielle AlphaGo bat une nouvelle fois le champion du monde de go, Le Monde, 25 mai 2017.

[9]V. le site Claudette. 

[10] Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique N° Lexbase : L4795LAT.

[11] P. Sugy, À cause de ChatGPT, un avocat américain cite des arrêts... qui n'ont jamais existé, 29 mai 2023, Le Figaro [en ligne].  

[12] E. Duval, ChatGPT : un juge colombien tranche une affaire à l’aide du logiciel d’intelligence artificielle, 3 février 2023, Libération [en ligne].

[13]Erreur de code. Un juge brésilien s’aide de l’IA et rend une sentence pleine de fautes, Liberation, 14 novembre 2023 [en ligne].

[14] M. Dahl, V. Magesh, M. Suzgun et D. E. Ho, Large Legal Fictions : Profiling Legal Hallucinations in Large Language Models, juin 2024.

[15] A. Unikowsky, In AI we trust, part II, Adam's Legal Newsletter [en ligne].

[16] N. Aletras, D.Tsarapatsanis, D. Preotiuc-Pietro, V. Lampos, Predicting judicial decisions of the European Court of Human Rights: A natural language processing perspective, PeerJ Computer Science, 2016, 2.

[17] O. Salaün, Ph. Langlais, A. Lou, H. Westermann, K. Benyekhlef, “Analysis and Multilabel Classification of Quebec Court Decisions in the Domain of Housing Law”, Natural Language Processing and Information Systems (International Conference on Applications of Natural Language to Information Systems), 2020, pp.135-143.

[18] O. Sulea, M. Zampieri, Sh. Malmasi, M. Vela, L. Dinu, J. van Genabith, Exploring the Use of Text Classification in the Legal Domain, Proceedings of the 2nd Workshop on Automated Semantic Analysis of Information in Legal Texts (ASAIL 2017). 

[19] Rachetée en 2023 par Lexisnexis, la solution Caselawanalytics est aujourd’hui distribuée sous la forme d’un « simulateur de décisions de justice ». 

[20]V. le site Legal Quantum qui propose une solution dite de « pricing de la rupture du contrat de travail au service de l’amiable ».

[21] E. Vergès, Le juge face à la boîte noire : l’intelligence artificielle au tribunal, Recueil Dalloz, 2022, p. 1920 ; G. Vial, Prise en main d’un outil d’intelligence artificielle par des auditeurs de justice : l’office du juge sous l’influence des algorithmes, Recueil Dalloz, 2022, p. 1928.

[22] W. Twinning, Taking Facts Seriously, Journal of Legal Education, 1984, vol. 34, p. 22.

newsid:490988

Cookies juridiques

Considérant en premier lieu que le site requiert le consentement de l'utilisateur pour l'usage des cookies; Considérant en second lieu qu'une navigation sans cookies, c'est comme naviguer sans boussole; Considérant enfin que lesdits cookies n'ont d'autre utilité que l'optimisation de votre expérience en ligne; Par ces motifs, la Cour vous invite à les autoriser pour votre propre confort en ligne.

En savoir plus