Lexbase Avocats n°353 du 5 décembre 2024 : Intelligence artificielle

[Dossier spécial] Décryptage de l’IA appliquée au Droit - Quel usage de l’Intelligence artificielle à la Cour de cassation ?

Lecture: 15 min

N0991B34

Citer l'article

Créer un lien vers ce contenu

[Dossier spécial] Décryptage de l’IA appliquée au Droit - Quel usage de l’Intelligence artificielle à la Cour de cassation ?. Lire en ligne : https://www.lexbase.fr/article-juridique/112908610-dossier-special-b-decryptage-de-lia-appliquee-au-droit-b-quel-usage-de-lintelligence-artificielle-a-
Copier

par Sandrine Zientara-Logeay, Présidente de chambre à la Cour de cassation, Directrice du service de documentation, des études et du rapport

le 05 Décembre 2024

Le présent article est issu de notre dossier spécial consacré au "Décryptage de l’IA appliquée au Droit".

 

Sandrine Zientara-Logeay, Présidente de chambre à la Cour de cassation, Directrice du service de documentation, des études et du rapport a accepté de nous expliquer comment la Cour de cassation envisage aujourd’hui l’intelligence artificielle. Elle fait le point sur les programmes d’IA déjà mis en œuvre à la Cour, notamment pour les besoins de la diffusion des décisions en open data et montre comment, forte de son haut niveau expertise technique et juridique, la Cour entend développer de nouveaux cas d’usage, de manière résolue et pragmatique, dans le souci de faciliter le travail du juge, mais sans d’aucune manière altérer son office.

Le sommaire de ce dossier est à retrouver en intégralité ici.


 

Nul n’ignore désormais que l’intelligence artificielle (IA) est devenue incontournable pour les professions du droit. 

Après les systèmes experts à base de règles, puis les systèmes d’apprentissage automatique, avec l’arrivée de Chat GPT et des robots conversationnels, chacun a pris la mesure des potentialités de l’IA générative [1]. Alors même que nous ne sommes certainement qu’aux prémices de cette nouvelle ère, puisque certains estiment qu’on ne connaît que 1 % des effets possibles de l’IA générative,  cette nouvelle révolution technologique suscite d’intenses débats, scientifiques ou philosophiques, entre technophiles ou technophobes,  entre ceux qui  prônent une théorie des droits de l’Homme numérique, un humanisme numérique, une IA éthique et ceux qui, au contraire, rêvent d’un homme augmenté, dans une société régulée, non plus par la norme étatique verticale mais par la norme immanente, horizontale des réseaux, dans le monde formalisé des algorithmes et des datas.

Dans le domaine du droit, l’IA générative, nourrie désormais par la diffusion en open data des décisions de justice [2] qui en constituent l’un des carburants, se développe de manière exponentielle, en particulier chez les éditeurs et les legaltech qui proposent des outils de recherche en constant progrès et dans les grands cabinets d’avocats qui créent leurs outils d’intelligence artificielle à partir de leur propre fonds documentaire. 

Dans le domaine de la justice, le développement des usages de l’IA apparait désormais comme une nécessité, tant il serait dommageable pour l’institution de se priver des potentialités exceptionnelles de ces outils qui constituent une opportunité remarquable pour rationaliser et enrichir le travail du juge. 

Néanmoins, si le déploiement de l’IA dans les juridictions doit certainement intervenir désormais rapidement, on ne peut faire l’économie d’une réflexion sur ce qui peut -et ce qui ne peut pas- être confié à une intelligence artificielle, tant d’un point de vue technique, économique, et juridique, qu’au regard des impacts éthiques, déontologiques et épistémologiques des usages. L’enjeu pour les magistrats, comme pour toutes les professions juridiques, est donc de réinterroger ce qui fait le cœur de leur office, et qui serait, à ce titre, irréductible à toute intelligence artificielle.

Actuellement, le ministère de la Justice travaille au recensement des besoins des juridictions et explore les cas d’usage possibles tels que l’aide à l’analyse de documents, la traduction ou la retranscription d’entretiens. L’Ecole de la magistrature a d’ores et déjà intégré dans ses programmes pédagogiques la nécessité de former les juristes aux usages de l’IA. 

De son côté, la Cour de cassation a décidé de s’engager résolument dans la voie du développement de l’IA pour l’usage des magistrats de la Cour.   

Pourquoi et comment la Cour entend arrêter un programme de développement de l’IA et quelles sont les perspectives à court et moyen terme ? Quelles réflexions sont, actuellement, en cours pour garantir le déploiement d’une IA raisonnée et utile, qui n’altère en rien l’office du juge de cour suprême mais lui permette au contraire de se concentrer sur celui-ci ?  

I. Les atouts de la Cour de cassation pour développer les usages de l’IA

A. Des programmes d’IA déjà réalisés, associés à un haut niveau d’expertise scientifique 

La Cour de cassation bénéficie d’une expertise ancienne en matière d’intelligence artificielle. Depuis 2019, elle a en effet développé, dans le cadre de la mise en œuvre du projet de diffusion en open data de toutes les décisions rendues publiquement et grâce à son laboratoire d’innovation composée à ce jour de 8 scientifiques dont plusieurs data scientists, différents programmes qui ont été un vrai succès, très largement reconnu en Europe.

La Cour a ainsi développé un algorithme de pseudonymisation des décisions de justice diffusées en open data, dont l’efficacité sur les noms propres avoisine les 99 %. Ce modèle repose sur le machine learning et sur le travail d’une cellule de 20 agents annotateurs qui assurent la relecture avant diffusion de certaines décisions aux fins de contrôle et d’entrainement de l’algorithme.  Le processus de pseudonymisation sera prochainement enrichi d’un second algorithme d’intelligence artificielle dit de fiabilité qui permettra de repérer de manière automatique certaines décisions pour lesquelles une relecture humaine sera jugée nécessaire en raison d’un doute sur le résultat de la pseudonymisation automatique.

Le laboratoire d’innovation a aussi développé un algorithme de reconnaissance et de tri par une intelligence artificielle des mémoires ampliatifs déposés par les avocats aux conseils.  Cela permet   de pré-orienter les pourvois vers les bureaux du SDER dit miroirs des chambres compétentes, avec un taux de succès de plus de 90 %. 

Enfin, la Cour a développé un projet de recherche très innovant visant à faciliter les détections de divergences de jurisprudence entre les chambres de la Cour, en partenariat avec une équipe de l’INRIA. Les résultats ont été très prometteurs, notamment sur l’analyse sémantique des décisions de justice, et en matière de réalisation automatique de titrage des arrêts. 

La Cour est aussi associée, comme partenaire, au projet PostGenAI@Paris (« intelligence artificielle post-générative ») porté par le SCAI (Sorbonne Center for Artificial Intelligence), qui vient récemment de remporter un très gros appel à projets. Le programme « utilisation de l’IA dans le système judiciaire » est une des composantes de ce vaste projet. 

B. Des données massives et de qualité, associés à un haut niveau d’expertise juridique 

A ce jour, la Cour n’a développé de projet d’IA qu’en lien avec les besoins de la diffusion des décisions en open data ou de l’orientation des pourvois, mais elle pourrait désormais, forte de cette expérience, se tourner vers l’IA documentaire, d’aide à la décision ou d’aide à la rédaction pour les magistrats de la Cour.  Il convient de relever à cet égard qu’elle gère des bases de données des décisions, rendues publiquement ou non, de l’ensemble des juridictions, accessibles au public (Judilibre) ou non accessibles (Jurinet et Jurica).  Ajoutées aux rapports des conseillers de la Cour et aux avis des avocats généraux, ces décisions constituent des données massives et de très grande qualité, qui pourraient permettre de développer, avec le recours à des technologies de préférence en open source, des outils de recherche internes. 

De surcroît, le haut niveau d’expertise juridique des magistrats de la Cour qui sont spécialisés dans les contentieux qu’ils traitent leur permet de tester la fiabilité et la robustesse des outils de recherche qui existent sur le marché, à l’état de l’art, afin de déterminer l’usage qui pourrait en être fait. 

Par ailleurs, et pour donner un dernier exemple, la qualité et le caractère normé des mémoires ampliatifs déposés par les avocats aux conseils permettent d’envisager de développer des outils algorithmiques de tri et de repérage des questions de droit nouvelles, identiques ou similaires, au moment de l’orientation des pourvois vers les chambres de la Cour. Un tel repérage permettrait à la Cour de traiter de manière plus efficace et coordonnée ces questions, dont la résolution rapide et exhaustive contribue au renforcement de la prévisibilité du droit. 

II. Le choix d’une méthode pragmatique et réfléchie

A. L’instauration d’un groupe de travail opérationnel

 Le premier président de la Cour de cassation et le procureur général ont missionné un groupe de travail interne pour proposer des cas d’usage de l’IA, qui pourraient être développés à la Cour de cassation.

Après avoir recensé les cas d’usage possibles en fonction des besoins exprimés par les magistrats de la Cour, le groupe de travail procédera à leur évaluation, en fonction de leur intérêt pour la Cour, de leur faisabilité technique et budgétaire mais aussi de leurs risques éventuels juridiques, éthiques, voire épistémologiques.

Les cas d’usage des outils d’IA sont en effet de types très divers, qu’il s’agisse d’outils d’aide documentaire et d’aide à la recherche, voire d’aide à la rédaction, pouvant aller jusqu’à l’automatisation d’un projet de décision, ou encore d’outils d’aide à l’appréhension d’une très grande masse de décisions du fond, permettant d’identifier des tendances jurisprudentielles ou des jurisprudences moyennes. 

Le groupe de travail, qui a commencé ses travaux en septembre, réunit des magistrats du siège et du parquet général des chambres de la Cour, du Service de documentation des études et du rapport et des data scientists de son laboratoire d’innovation. Il procédera à différentes auditions, de spécialistes de l’IA, de chercheurs, de magistrats et de représentants d’autres professions juridiques et à diverses études notamment sur les usages de l’IA dans d’autres cours suprêmes. 

Les travaux de cette mission de réflexion sur l’IA devront ainsi aboutir à des propositions concrètes de cas d’usage à développer à la Cour, rapidement ou à moyen terme, de manière généralisée ou expérimentale, précisant les modalités de financement et les conditions préalables éventuelles d’usage. Ils auront aussi une visée davantage théorique d’analyse de ce que peut faire -ou ne peut pas faire- l’IA, des limites et risques inhérents à son usage.

B. Une réflexion concomitante sur les limites de l’IA et les risques

Les limites à l’usage de l’IA dans l’activité juridictionnelle sont d’abord techniques, car l’IA, à l’état de l’art, et au regard du haut niveau d’exigence qui est celui de la Cour, n’a pas toujours les résultats escomptés, soit qu’elle hallucine, soit qu’elle commette des erreurs par défaut de capacités de compréhension réelle du sens, au-delà du calcul de fréquence des mots.

Elles sont aussi juridiques. 

Le règlement IA [3] classe dans la catégorie des IA à risque « les Systèmes d'IA destinés à être utilisés par une autorité judiciaire ou en son nom pour aider une autorité judiciaire à rechercher et à interpréter les faits et le droit en appliquant la loi à un ensemble concret de faits ou utilisés de manière similaire dans le cadre de modes alternatifs de règlement des litiges. ». S’agissant des modèles d’IA directement impliqués dans le processus décisionnel du juge ou ayant un impact sur les droits des parties, il convient de les distinguer suivant qu’ils influencent plus ou moins sensiblement la prise de décision. Selon le règlement IA, « l'utilisation d'outils d'intelligence artificielle peut soutenir le pouvoir décisionnel des juges mais ne doit pas le remplacer, car la prise de décision finale doit rester une activité et une décision pilotées par l'homme ». 

 La prise en compte du droit en construction de la régulation de l’IA constituera une première approche préalable au développement des cas d’usage, et devra intégrer le respect de la protection des droits de l’Homme, de l’intégrité des processus démocratiques et de l’État de droit [4].

Au-delà, une réflexion mérite certainement d’être conduite sur les risques de transformation de la fonction de juger par l’usage de l’IA, et de leur acceptabilité. 

Pour les juridictions du fond cette approche parait indispensable.  

Si on envisage, par exemple,  la justice civile ou pénale dans sa finalité longue, symbolique et réparatrice ou pacificatrice, chère à Paul Ricoeur, force est de constater qu’elle  requiert des qualités relationnelles et humaines, des qualités émotionnelles et d’empathie, une capacité d’écoute et de considération de la personne du justiciable, qui s’expriment notamment lors d’une audience en présentiel, et qu’on ne peut attendre d’un juge-robot et d’un traitement strictement algorithmique des affaires. Tom Tyler dans ses théories sur la justice procédurale a montré à cet égard que le sentiment d’avoir été traité avec considération et d’avoir été écouté participe, autant que le résultat, à l’acceptabilité de la décision et constitue un facteur de la légitimité du juge. 

L’usage de l’IA parait davantage fondé s’il s’agit de déterminer des jurisprudences moyennes (dans des domaines où une solution prévisible et harmonisée est a priori souhaitable, comme les  pensions alimentaires, les indemnités de licenciement, l’indemnisation des dommages corporels, voire la  sanction des infractions au code de la route), pour éviter les biais du juge et assurer une égalité de traitement du justiciable grâce à une application rigoureusement identique de la règle de droit aux situations de faits identiques. Néanmoins pour que l’office du juge ne soit pas altéré, sa faculté de choisir de s’écarter d’une jurisprudence moyenne doit être préservée, non seulement par principe mais de manière effective.  

Par ailleurs, en matière pénale, il ne me paraît pas envisageable de déterminer une peine en fonction d’un calcul algorithmique du risque de récidive : cette logique actuarielle et déterministe heurte de plein fouet les fondements du droit pénal moderne, qui fait reposer la responsabilité sur le libre arbitre. 

 Si la Cour de cassation, qui n’est pas juge du fait, n’est pas concernée directement par ces risques, elle est confrontée dans son office consistant à dire le droit, à d’autres limites, notamment de nature épistémologique.  

Le doyen Carbonnier disait déjà que le juge n’est pas « une machine à syllogismes » [5]. On sait que le rôle normatif de la Cour s’est accru sur fond de constitutionnalisation du droit. Pour exercer cet office normatif, le juge de cour suprême ne peut aborder le raisonnement juridique comme un pur syllogisme, un calcul objectif et prévisible, modélisable par l’IA. L’approche d’une question juridique nouvelle suppose souvent un esprit d’ouverture, une capacité au doute (alors que la machine est précisément entraînée à ne pas être sceptique), une approche interdisciplinaire et contextuelle, et une mise en balance des valeurs, toutes tâches que seul l’humain pourrait réaliser.  En outre, les solutions produites par l’IA, reposent, par hypothèse, sur l’analyse des décisions déjà rendues de sorte que le risque de voir se figer la jurisprudence du fait d’un usage non contrôlé de l’IA est bien réel.  Il convient ainsi de mesurer le risque, avec l’utilisation de l’IA pour l’élaboration de la décision, d’appauvrissement du raisonnement juridique, de retour à un positivisme dépassé et surtout d’immobilisme de la jurisprudence qui perdrait de ce fait sa capacité d’adaptation aux évolutions sociales, sociétales ou économiques, capacité que la Cour se doit de garantir. 

De la même manièrel’analyse d’une grande masse de décisions du fond, sur certains contentieux, par des algorithmes, dont la Cour garantirait la fiabilité et l’absence de biais, comporte le risque de conduire à la définition d’une norme par le nombre. Selon le professeur Zenati-Castaing [6]  le risque serait que l’unification du droit ne se fasse plus par la contrainte de la loi, telle qu’interprétée par la Cour de cassation, mais par l’autorité qui se dégagera de la prévalence des solutions majoritairement adoptées par les juridictions du fond. Si la Cour s’engageait dans cette voie, il lui appartiendrait certainement de veiller à ce que l’usage de ces outils (à supposer leur réalisation possible à l’état de l’art) puisse contribuer à l’unification des pratiques, sous son contrôle, qu’elle peut moduler et dans le souci du renforcement du dialogue des juges, horizontal et vertical.

En conclusion, il s’agit pour la Cour d’avancer de manière à la fois résolue et pratique pour utiliser l’IA au mieux de ses potentialités pour assister le juge et renforcer son office de cour suprême. 

Le défi qui se pose aujourd’hui à la Cour, comme à l’institution entière, est de développer l’IA au maximum de ses capacités tout en la maitrisant et en la laissant à sa juste place.

 

[1] On entend par IA générative une IA capable de créer des contenus originaux (texte, images, vidéo, audio et/ou code logiciel) en réponse à l’invite ou à la requête d’un utilisateur. L’IA générative s’appuie sur des modèles sophistiqués de machine learning, appelés modèles d’apprentissage profond ou deep learning, c’est-à-dire des algorithmes qui simulent les processus d’apprentissage et de prise de décision du cerveau humain.

[2]  A ce jour 1 000 317 décisions de la Cour de cassation, décisions civiles, sociales et commerciales des cours d’appel et des tribunaux judiciaires sont diffusées sur le site Judilibre de la Cour de cassation. A terme, plus de 2 millions de décisions, intégrant les décisions pénales, celles des tribunaux de commerce et des conseils de prud'hommes devraient être mis en ligne chaque année.

[3] Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle N° Lexbase : L1054MND.

[4] Voir à cet égard la convention cadre du conseil de l’Europe du 17 mai 2024, comme précédemment la charte éthique de la CEPEJ de décembre 2018.

[5] J. Carbonnier, Droit civil – Vol 1 : Introduction, Presses universitaires de France (PUF), collection Quadrige, 2004, p. 23.

[6] F. Zenati-Castaing, La jurisprudence électronique est susceptible de révolutionner la cassation et à terme de provoquer rien de moins que sa disparition, La Semaine Juridique, éditions générales, supplément au numéro 7-8, 19 février 2024.

newsid:490991

Cookies juridiques

Considérant en premier lieu que le site requiert le consentement de l'utilisateur pour l'usage des cookies; Considérant en second lieu qu'une navigation sans cookies, c'est comme naviguer sans boussole; Considérant enfin que lesdits cookies n'ont d'autre utilité que l'optimisation de votre expérience en ligne; Par ces motifs, la Cour vous invite à les autoriser pour votre propre confort en ligne.

En savoir plus