Lecture: 35 min
N1239B3B
Citer l'article
Créer un lien vers ce contenu
par Guillaume Payan, Professeur à l’Université de Toulon (France), Membre du Conseil scientifique de l’UIHJ, Directeur adjoint du CDPC Jean-Claude Escarras (UMR CNRS 7318 DICE)
le 18 Décembre 2024
Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)
Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.
Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39
Les applications spécifiques de l’IA dans l’exécution [1]
1. L’emprise des technologies modernes de la communication et la dématérialisation corrélative des procédures civiles d’exécution ne cessent de gagner du terrain dans les États européens. Les progrès technologiques récents conduisent à envisager un aspect particulier de cette évolution, à savoir le déploiement des outils de l’intelligence artificielle.
2. Intelligence artificielle. Les termes « intelligence artificielle » (IA) sont abondamment utilisés aujourd’hui, à tel point que l’on a le sentiment que toutes les évolutions récentes en relèvent. Pour autant, on rencontre une certaine gêne lorsqu’il s’agit de définir avec précision à quoi on fait référence. La prépondérance de la langue anglaise ne facilite d’ailleurs pas l’exercice, même si des efforts sont faits pour « franciser » les termes employés. Ainsi, méritent notamment d’être salués les travaux de la commission d’enrichissement de la langue française consistant en l’élaboration d’une « liste relative au vocabulaire de l’intelligence artificielle (termes, expressions et définitions adoptés) », récemment publiée au JORF [2].
Quoi qu’il en soit, pour s’en tenir à l’importante Charte éthique européenne de la CEPEJ d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement [3], l’intelligence artificielle est définie comme « un ensemble de sciences, théories et techniques dont le but est de reproduire par une machine des capacités cognitives d’un être humain. Les développements actuels visent à pouvoir confier à une machine des tâches complexes auparavant déléguées à un humain » [4]. Dans cette Charte, sont consacrés cinq principes majeurs permettant de guider les outils d’intelligence artificielle dans les systèmes judiciaires européens, en l’occurrence :
« 1. Principe de respect des droits fondamentaux : assurer une conception et une mise en œuvre des outils et des services d’intelligence artificielle qui soient compatibles avec les droits fondamentaux ;
2. Principe de non-discrimination: prévenir spécifiquement la création ou le renforcement de discriminations entre individus ou groupes d’individus ;
3. Principe de qualité et sécurité: en ce qui concerne le traitement des décisions juridictionnelles et des données judiciaires, utiliser des sources certifiées et des données intangibles avec des modèles conçus d’une manière multidisciplinaire, dans un environnement technologique sécurisé ;
4. Principe de transparence, de neutralité et d’intégrité intellectuelle : rendre accessibles et compréhensibles les méthodologies de traitement des données, autoriser les audits externes ;
5. Principe de maîtrise par l’utilisateur : bannir une approche prescriptive et permettre à l’usager d’être un acteur éclairé et maître de ses choix ».
Au titre des illustrations concrètes, on peut lire dans ce même document qu’« une classification peut être opérée en fonction du service offert. L’intervention de l’IA peut être très variable en fonction des applications. Les grandes familles pourraient être organisées comme suit, à titre illustratif : Moteur de recherche de jurisprudence avancé, Résolution de litiges en ligne, Aide à la rédaction d’actes, Analyse (prédictif, barèmes), Catégorisation des contrats selon différents critères et détection de clauses contractuelles divergentes ou incompatibles, "Chatbots" de renseignement du justiciable ou de support de celui-ci dans sa démarche litigieuse » [5].
À ces illustrations s’ajoute désormais ce que l’on dénomme l’intelligence artificielle « générative » qui renvoie à « un système logiciel qui communique en langage naturel, capable de répondre à des questions relativement complexes et de créer un contenu (texte, image ou son) à la suite d’une question ou d’instructions formulées […]. Parmi ces outils, figurent OpenAI ChatGPT, Copilot, Gemini et Bard » [6]. Autrement dit, cette IA générative correspond à une « branche de l’intelligence artificielle mettant en œuvre des modèles génératifs, qui vise à produire des contenus textuels, graphiques ou audiovisuels » [7]. Gravitent également dans cette nouvelle galaxie d’outils, les techniques mettant en pratique la « blockchain » (ou « chaines de bloc »), au sens de techniques permettant de « générer, stocker et faire circuler les actifs sans aucun intermédiaire, via une base de données décentralisée et sécurisée par cryptographie » [8].
3. Exécution. Telle que visée dans la Recommandation Rec (2003) 17 du Comité des Ministres aux États membres du 9 septembre 2003, l’exécution peut être définie comme « le fait de donner effet à des décisions de justice, ainsi qu’à d’autres titres exécutoires, qu’ils soient judiciaires ou non judiciaires, conformément à la loi qui oblige le défendeur à faire, à s’abstenir de faire ou à payer ce qui a été décidé ».
Ce domaine de l’exécution forcée n’est pas épargné par les évolutions technologiques, en dépit de ses particularités intrinsèques et, singulièrement, de l’omniprésence de la contrainte. Sous réserve des précisions qui seront apportées par la suite, il apparaît même que l’on puisse voir dans l’exécution forcée des titres exécutoires un terrain d’élection pour le déploiement des outils de l’IA. Envisagés dans le respect des standards européens de l’exécution – tels que notamment consacrés dans la Recommandation Rec (2003) 17 précitée et précisés dans les Lignes directrices de la CEPEJ sur l’exécution du 17 décembre 2009 [9], puis dans le Guide des bonnes pratiques en matière d’exécution des décisions de justice du 11 décembre 2015 [10] – venant protéger les droits et intérêts légitimes des débiteurs, ces outils de l’IA peuvent être mis à profit pour accroître l’efficacité des procédures engagées au service de la réalisation effective des droits des créanciers. En somme, si l’IA opère un renouvellement du contexte dans lequel doit désormais s’envisager le processus d’exécution, on constate une permanence dans les objectifs poursuivis. Il s’agira toujours pour l’agent d’exécution de prêter son concours afin que le créancier obtienne son dû et pour que les droits des débiteurs soient dument pris en compte [11].
Dans cette perspective, il y a lieu d’envisager l’application de l’intelligence artificielle non seulement à l’égard des procédures d’exécution (I), mais également au bénéfice des acteurs de l’exécution (II).
I. Application de l’Intelligence artificielle à l’égard des procédures d’exécution
4. Dans le but de préserver l’État de droit, il importe que les procédures civiles d’exécution soient efficaces et équitables [12]. Si l’IA peut permettre d’en accroître l’efficacité (A), elle doit trouver une limite dans la nécessaire sauvegarde du caractère équitable desdites procédures (B).
A. Potentialités : facteur d’efficacité des procédures d’exécution
5. L’apport de l’IA ne se résume pas dans la simplification de la gestion administrative d’un dossier ouvert dans l’étude d’un agent d’exécution. Les outils de l’IA peuvent être exploités à l’occasion de la réalisation de l’exécution et, partant, lors de la mise en œuvre des procédures civiles d’exécution (2). Ils peuvent l’être également, en amont, lors de la recherche d’informations permettant de localiser le débiteur et les éléments de son patrimoine (1).
1) Transparence patrimoniale
6. On le sait, l’efficacité de l’exécution repose grandement sur l’obtention d’informations complètes, précises et à jour sur les éléments actifs et les éléments passifs [13] du patrimoine du débiteur. Les outils de l’intelligence artificielle peuvent-ils faciliter la recherche de ces informations patrimoniales ? La réponse à cette épineuse question semble en partie liée aux modes d’accès aux informations patrimoniales. Au risque de grossir le trait, on peut distinguer l’investigation patrimoniale et la déclaration patrimoniale.
7. Investigation patrimoniale. Le premier dispositif de transparence patrimoniale consiste en la consultation de registres, par un professionnel chargé de procéder à l’exécution (à savoir, l’agent d’exécution). Le concernant, on perçoit assez aisément l’apport de l’intelligence artificielle, en ce que ces nouvelles technologies permettent de traiter simultanément un grand volume de données ainsi que fournir les conditions idoines pour une interconnexion facilitée des registres dématérialisés contenant des informations patrimoniales (ex. fichiers des véhicules automobiles, fichiers de comptes bancaires, fichiers immobiliers…), tenus dans un même pays ou dans des pays différents. Cela suppose bien entendu que ces fichiers soient à jour et correctement renseignés. On pense également aux progrès enregistrés sur le terrain de la géolocalisation.
8. Déclaration patrimoniale. Le second dispositif de transparence patrimoniale repose sur le concours du débiteur et, plus généralement, de la personne visée par la procédure civile d’exécution envisagée. On perçoit ici des limites de l’intelligence artificielle.
L’efficacité du dispositif repose alors sur les sanctions encourues lorsque la personne qui détient les informations n’obtempère pas. La pertinence de la solution de l’astreinte – connue de la majorité des États européens [14] – est variable en fonction des situations rencontrées. Par exemple, cette pression financière est inefficace si le débiteur récalcitrant a concentré les éléments actifs de son patrimoine dans des crypto-actifs ou, plus généralement, que son patrimoine est essentiellement composé de biens numériques qui ne sont accessibles qu’avec son concours.
Dans une telle situation, le prononcé d’une sanction pénale peut présenter une certaine efficacité. Or, la pénalisation de l’exécution des décisions de justice prononcées en matière civile est une question qui divise les États européens [15]. Privilégier les sanctions pénales pour accompagner le déploiement des outils de l’IA dans le domaine de l’exécution civile serait quelque peu déconcertant. À la grande nouveauté apportée par l’IA, seraient ainsi associées des sanctions semblant appartenir à un autre temps [16].
2) Réalisation de l’exécution
9. Après avoir localisé les éléments actifs du patrimoine du débiteur, il appartient au créancier de faire mettre en œuvre les procédures civiles d’exécution prévues par la législation nationale applicable. Là encore, l’IA ouvre le champ des possibles en permettant une réforme du déroulement des procédures existantes et en autorisant la création de procédures adaptées aux « nouveaux » biens composant le patrimoine (numérique) des débiteurs.
10. Modifier les procédures existantes. On prête traditionnellement, au phénomène de dématérialisation, l’avantage de contribuer à une mise en œuvre accélérée des procédures visées. En ce sens, les « nouvelles technologies » peuvent permettre d’éviter certains déplacements des agents d’exécution et, par extension, augmenter leur productivité et réduire les coûts. De plus, elles sont de nature à accroître la célérité dans la communication avec les juridictions susceptibles d’être saisies en cas d’incidents contentieux pouvant survenir à l’occasion de l’exécution d’une décision de justice.
On retrouve a fortiori de tels avantages lorsque ces nouvelles technologies exploitent les ressources de l’intelligence artificielle. Les outils de l’IA peuvent modifier la façon de réaliser une procédure d’exécution sur des biens qui composent traditionnellement les patrimoines : véhicules, immeubles ou encore comptes bancaires. Sans changer la nature de la contrainte – juridique ou matérielle – inhérente à la procédure d’exécution mise en œuvre, les outils de l’intelligence artificielle peuvent en modifier les modalités. Par exemple, il serait techniquement possible qu’un logiciel organise, à distance, la fermeture automatique des portières et bloque le démarrage d’un véhicule connecté pour l’achat duquel le débiteur aurait contracté un prêt dont les échéances ne seraient pas respectées. On parle à ce sujet de « Kill Switch » (ou « coupe-circuit ») d’un réseau privé virtuel (VPN) permettant de déconnecter automatiquement un appareil électronique. De même, l’évolution technologique autorise l’élaboration d’un programme informatique permettant à un ordinateur d’identifier les mouvements sur les comptes bancaires d’un débiteur et de générer automatiquement – au moment le plus opportun – un acte de saisie. Par ailleurs, afin de pratiquer une saisie de biens meubles ou immeubles, on peut également imaginer qu’un programme parvienne à décrire avec précision – le cas échéant, en suggérant une valeur approximative – les biens figurant sur des photos prises par un agent d’exécution.
11. Pallier les carences des procédures existantes. L’efficacité de l’exécution suppose que les États se dotent de procédures d’exécution adaptées à la diversité de la composition et à la dématérialisation [17] croissante des patrimoines. Les études de la CEPEJ ayant trait à l’exécution révèlent que les arsenaux législatifs des États membres du Conseil de l’Europe se diversifient [18]. Cependant, il ressort de l’examen des législations nationales que font aujourd’hui défaut des procédures d’exécution applicables spécifiquement aux « nouveaux types de biens » ou « patrimoine numérique », tels que les objets connectés [19] ou encore les crypto-actifs [20] ou actifs numériques [21], Tokens immobiliers, Wallet… Biens qui, pour certains, sont particulièrement volatiles et dont la valeur est sujette à de possibles variations brutales. Or, il n’est pas assuré que les procédures d’exécution en vigueur à ce jour soient adaptées. Les outils de l’IA peuvent apporter une aide précieuse en ce domaine. Pour le dire autrement, si l’évolution des technologies conduit ou devrait conduire les législateurs nationaux à ajuster les règles applicables et impose aux praticiens du droit de s’adapter, il apparait tout aussi vrai que ces nouvelles technologies offrent ou devraient offrir les outils techniques pour opérer cette adaptation. À cet égard, on constate avec grand intérêt que les professionnels du droit sont pro-actifs et anticipent les évolutions législatives en suggérant l’adoption de règles pertinentes. Ainsi en est-il de l’Union internationale des huissiers de justice avec l’élaboration du Code mondial de l’exécution [22], dont la nouvelle mouture refondue et enrichie – rédigée sous l’impulsion du Président Marc Schmitz – contient notamment des principes régissant la digitalisation dans le domaine de l’exécution.
B. Pérennité : caractère équitable des procédures d’exécution
12. Les droits et intérêts légitimes des débiteurs doivent impérativement être préservés dans le contexte d’un déploiement des outils de l’intelligence artificielle. De ce point de vue, si ces technologies modernes permettent de franchir certains obstacles « de fait » à l’exécution – tels que ceux liés à l’opacité des patrimoines ou à la volatilité des éléments qui les composent [23] –, elles ne doivent pas passer outre la nécessaire prise en compte de droits fondamentaux des débiteurs et de leurs proches [24], tels que le droit à la dignité (1) ou, dans une certaine mesure, le droit à la vie privée et vie familiale (2) ; auxquels viennent s’ajouter les droits fondamentaux procéduraux, tels que les exigences du droit à un procès équitable.
1) Préserver des conditions de vie décentes au débiteur et à ses proches
13. Le droit à la dignité du débiteur se traduit notamment par la prévision d’une liste de biens insaisissables [25]. L’emploi des outils de l’IA ne doit évidemment pas conduire à la remise en cause de ces règles protectrices.
Notons que la réduction des coûts de l’exécution engendrée par l’usage des outils de l’IA – du fait notamment de la limitation des frais de déplacement de l’agent d’exécution [26] – peut quant à elle bénéficier aux débiteurs, ces derniers devant in fine supporter lesdits coûts. À l’inverse, il faut être attentif à l’éventuelle répercussion des coûts, sur les parties, des investissements réalisés par les agents d’exécution pour se doter des technologies les plus performantes.
2) Respecter la vie privée du débiteur et de ses proches
14. Dans une certaine limite, le droit à la vie privée et à la vie familiale du débiteur peut être invoqué pour limiter ou encadrer l’exercice du droit à l’exécution des titres exécutoires [27]. La détermination des jours et heures pour pratiquer une mesure d’exécution constitue un exemple topique. À cet égard, si les outils de l’intelligence artificielle peuvent être opérationnels à n’importe quelle heure – du jour ou de la nuit – et à l’importe quel jour de la semaine, cela ne signifie pas pour autant que l’on doive sacrifier les règles protectrices jusqu’ici applicables.
Le droit québécois offre une illustration intéressante, sur le terrain voisin de la notification des actes de procédure. Aux termes du second alinéa de l’article 111 du Code de procédure civile local, « la notification faite par un moyen technologique après 17h00, le samedi ou un jour férié est réputée faite à 8h00 le jour ouvrable qui suit ». Une telle solution est tout à fait déclinable dans le domaine de l’exécution.
Par ailleurs, le nécessaire respect du droit au respect de la vie privée protège les individus contre les dangers d’une divulgation excessive des données à caractère personnel. Y compris dans le cadre d’une procédure d’exécution, la transmission d’un acte par voie électronique peut s’exposer à un risque de piratage et d’interception indue. Il faut également garder à l’esprit les « données fantômes » qui sont glanées à l’occasion de la mise en œuvre d’une procédure d’exécution et qui peuvent être stockées dans les smartphones et y figurer encore bien après l’achèvement de la procédure diligentée.
II. Application de l’Intelligence artificielle au bénéfice des acteurs de l’exécution
15. Aux titres des « acteurs de l’exécution », sont concernés les « organes de la procédure » [28] (A) ainsi que les parties et les tiers (B).
A. Organes de la procédure
16. L’attention porte ici notamment sur le recours à des « systèmes algorithmiques » dans le domaine de l’exécution forcée. Cette notion renvoie à « des applications qui, au moyen souvent de techniques d’optimisation mathématique, effectuent une ou plusieurs tâches comme la collecte, le regroupement, le nettoyage, le tri, la classification et la déduction de données, ainsi que la sélection, la hiérarchisation, la formulation de recommandations et la prise de décision » [29]. Leur usage se conçoit au stade de la prise de décision – d’un agent d’exécution à l’occasion de la mise en œuvre d’une procédure d’exécution ou d’un juge lors du contrôle de la régularité d’une procédure – (1), comme au stade du recours formé à l’encontre de la décision prise (2).
1) Au stade de la prise de décision
17. Les dangers de la déshumanisation sont présents à l’égard des instruments de « justice prédictive ». Les concernant, une gradation est possible si l’on opère une distinction entre, d’un côté, les technologies qui aident le professionnel du droit lors de la prise de décision (en cela comprise l’aide à la recherche juridique, à l’analyse de documents et à la rédaction d’actes [30]) et, de l’autre, les technologies qui se substituent à ce professionnel. S’agissant de ces dernières, plusieurs textes nationaux [31] ou internationaux [32] ont consacré le droit des justiciables à être informés du traitement de leur affaire par un algorithme et ont écarté les situations où l’adoption de cette décision repose exclusivement sur un traitement automatisé de données à caractère personnel. A minima, lorsqu’un professionnel du droit fait par exemple usage d’un « système algorithmique » pour l’aider à arrêter son choix, une information claire des personnes impliquées doit être assurée [33]. Ces précautions prévues au bénéfice des parties peuvent tout à fait s’envisager dans le contexte de l’exécution forcée d’un titre exécutoire.
D’autres précautions doivent bénéficier aux organes de la procédure. L’usage des outils de l’IA ne doit pas se manifester par une pression démesurée sur la prise de décision et sur le libre arbitre de l’intervenant humain. De ce point de vue, la protection contre la déshumanisation de la justice doit s’accompagner notamment de la protection de l’exigence d’autonomie décisionnelle des auxiliaires de justice (dont l’agent d’exécution) et de l’exigence d’indépendance des juges (dont le juge compétent en matière d’exécution des titres exécutoires). Par extension, tout mécanisme de profilage des juges est à proscrire ; profilage qui est d’autant plus facile à organiser dès lors que la matière de l’exécution forcée, du fait de sa grande technicité, est un domaine où la spécialisation des juges est encouragée [34].
18. Dans un ordre d’idée voisin, on n’insistera jamais assez sur l’importance, pour les professionnels concernés, de se former [35] au bon usage des outils de l’IA. L’utilisation de l’IA doit s’opérer dans le respect du secret professionnel, du secret des affaires et, plus généralement, de l’éthique et des règles déontologiques [36]. On pense par exemple à la démarche conduisant un praticien à énoncer un problème juridique, afin que l’IA le résolve. Non seulement la question devra être posée de façon pertinente, mais elle devra également l’être après une anonymisation des informations communiquées. Par ailleurs, cette formation doit être axée sur l’identification de la valeur ajoutée – notamment en termes de stratégie procédurale – que le professionnel « humain » apportera dans l’exploitation et le contrôle des résultats générés par l’IA, étant considéré que sa responsabilité peut être engagée s’il s’approprie des réponses qui s’analyseraient en des « hallucinations » ou erreurs.
19. L’acculturation des professionnels du droit à l’intelligence artificielle constitue un enjeu majeur pour les prochaines années [37]. Cette difficulté n’étant pas propre au continent européen, on remarquera avec intérêt les premières décisions prononcées aux États-Unis, dans lesquelles la responsabilité de praticiens du droit (avocats) est engagée en raison de l’absence de vérification et de l’usage de données générées par l’IA qui se sont avérées inexactes [38]. Dans la même veine, on peut signaler une décision de la Cour constitutionnelle de Colombie datant du 2 août 2024 dans laquelle les Hauts magistrats encadrent l’usage de l’IA par les juges, en mettant en avant la nécessaire garantie des droits fondamentaux ainsi que l’importance de l’intervention humaine dans les décisions de justice [39].
2) Au stade du recours contre la décision prise
20. Si des « services "en ligne" d’exécution » devaient avoir pour seul fondement un traitement algorithmique ou automatisé de données à caractère personnel, il faudrait s’assurer que les parties disposent du droit de soumettre, au réexamen d’une personne physique, la procédure d’exécution qui aurait été menée par des moyens automatisés ou qui aurait donné lieu au seul emploi d’un algorithme [40]. En d’autres termes, la machine ne doit pas remplacer l’humain. Le contrôle par l’agent d’exécution, personne humaine et professionnel de l’exécution, devrait être assuré.
B. Parties et tiers à la procédure
21. Les parties (1) et les tiers (2) aux procédures d’exécution mises en œuvre ne doivent pas être exclus de la réflexion portant sur l’emprise de l’IA sur l’exécution des titres exécutoires.
1) Les parties : bonne compréhension du processus d’exécution
22. Les documents adoptés par le Conseil de l’Europe en matière d’exécution mettent l’accent sur l’exigence d’une bonne compréhension, par les parties, du droit applicable et de la procédure dans laquelle elles sont impliquées [41]. Là encore, l’IA peut être opportunément exploitée.
23. Information sur la législation applicable. Une information complète sur la législation applicable est le nécessaire préalable à la compréhension et à la maîtrise du processus d’exécution [42]. Il importe que cette information soit facilement accessible. Dans cette optique, les fonctionnalités des outils de l’intelligence artificielle sont particulièrement étendues. Les logiciels disponibles réduisent ou anéantissent les inconvénients liés à l’éparpillement des textes applicables (en regroupant les données pertinentes en provenance de sources juridiques différentes) et au plurilinguisme (en prévoyant des traductions instantanées de grande qualité).
24. Informations relatives au déroulement d’une procédure d’exécution donnée. L’information en temps réel des parties sur le déroulement de la procédure dans laquelle elles sont impliquées devient techniquement possible. Ces techniques peuvent tout à fait être exploitées dans le domaine de l’exécution forcée, sous réserve néanmoins de respecter les exigences tenant à l’efficacité de la procédure mise en œuvre, laquelle suppose parfois un certain « effet de surprise » à l’égard du débiteur. Autre réserve : il est également important de se prémunir contre l’« illectronisme », à défaut de quoi l’usage des technologies innovantes pourrait accroître les inégalités entre les justiciables. D’autres canaux d’information des parties doivent donc être maintenus.
2) Les tiers : pleine coopération au processus d’exécution
25. La confection et l’usage des outils de l’Intelligence artificielle ont pour conséquence l’apparition de nouveaux « tiers » qui sont amenés à prendre place – directement ou indirectement – dans le processus d’exécution des titres exécutoires.
26. Les concepteurs de logiciels. Il y a tout d’abord les structures qui créent et exploitent les outils de l’intelligence artificielle. On pense aux « Legaltech ». Plus généralement, sont apparues des structures – privées – concevant les algorithmes et des opérateurs qui élaborent les outils électroniques utilisés dans la sphère juridique, dont la neutralité ne doit pas être considérée comme une donnée nécessairement acquise ; des biais pouvant exister dans la collecte et l’exploitation des données. Une solution pourrait être trouvée dans l’obligation faite à ces opérateurs d’assurer une réelle transparence quant au contenu des logiciels utilisés. Cependant, à supposer que cela soit possible, il conviendrait de veiller à l’intelligibilité des explications fournies.
27. Les détenteurs d’actifs numériques. Il y a ensuite les plateformes d’intermédiation qui facilitent la conservation, l’échange et la revente des crypto-actifs [43]. Or, il n’est point assuré que l’on puisse y voir des « tiers saisis », au sens traditionnel du terme. Il s’ensuit des incertitudes sur les leviers à activer pour s’assurer de leur collaboration aux procédures d’exécution qui pourraient être engagées.
[1] Étude in UIHJ, 3ème Forum mondial sur l’exécution, L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? , organisé à Strasbourg, Palais du Conseil de l’Europe, le 2 décembre 2024.
[2] JORF, 6 septembre 2024, texte 51.
[3] Charte adoptée lors de la 31ème réunion plénière de la CEPEJ les 3-4 décembre 2018. Depuis, voy. égal. CEPEJ, Feuille de route révisée visant à assurer un suivi approprié de la Charte éthique européenne de la CEPEJ sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, 9 décembre 2021, CEPEJ (2021) 16 ; CEPEJ, Outil d’évaluation pour l’opérationnalisation de la Charte éthique européenne sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, 4 décembre 2023, CEPEJ (2023) ; CEPEJ, L’utilisation de l’intelligence artificielle (IA) générative par les professionnels de la justice dans un contexte professionnel, note d’information, 12 février 2024, CEPEJ-GT-CYBERJUST (2023) final. Par ailleurs, en droit de l’Union européenne, voy. le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle (IA) N° Lexbase : L1054MND, JOUE L, 12 juillet 2024.
[4] Charte, spéc. annexe III, glossaire.
[5] Charte, spéc. annexe I, p. 17.
[6] Commission européenne pour l’efficacité de la justice, L’utilisation de l’intelligence artificielle (IA) générative par les professionnels de la justice dans un contexte professionnel : note d’information, 12 février 2024, CEPEJ-GT-CYBERJUST(2023) 5 final.
[7] Commission d’enrichissement de la langue française, Liste relative au vocabulaire de l’intelligence artificielle (termes, expressions et définitions adoptés), JORF 6 septembre 2024, texte 51.
[8] En ce sens, voy. J. Risser, Crypto-actifs et exécution : saisie impossible ?, Rev. prat. rec. n° 10, novembre 2020, p. 3.
[9] CEPEJ (2009) 11 REV 2. Les lignes directrices.
[10] CEPEJ (2015) 10. Le guide des bonnes pratiques.
[11] Adde, G. Payan, Propos conclusifs, in Le commissaire de justice et les défis du numérique, Colloque organisé à Strasbourg, le 27 juin 2024, par l’Institut national de formation des commissaires de justice (INCJ), sous la direction scientifique de M.-P. Mourre-Schreiber (actes à paraître).
[12] Lignes directrices, point 6.
[13] On pense ici à la publicité des procédures civiles d’exécution mises en œuvre contre un débiteur.
[14] Adde, O. Remien, L’astreinte et l’Europe, in Mélanges en l’honneur de Pascal Ancel, Larcier, 2021, p. 852.
[15] La place du droit pénal dans les législations nationales fait d’ailleurs partie des critères traditionnellement employés en droit comparé de l’exécution pour classer les États. En ce sens, voy., par ex., J. Isnard, Rapport introductif, in S. Collins, L. Netten et B. Menut (dir.), L’harmonisation des procédures d’exécution dans un espace de justice sans frontière, EJT, 2007, p. 133 (spéc. p. 141). Voy. égal., du même auteur, Les instruments européens, obstacles ou tremplins pour l’exécution ?, in A. Leborgne et E. Putman (dir.), Les obstacles à l’exécution forcée : permanence et évolution, EJT, 2009, p. 147.
[16] En France, en matière civile, la prison pour dette – ou contrainte par corps – a été supprimée en 1867.
[17] La dématérialisation des éléments du patrimoine des débiteurs revêt une grande importance et participe du nécessaire renouvellement du droit de l’exécution, tant il est vrai que ce droit est largement tributaire des règles régissant le droit des biens.
[18] Voy. not. Étude spécifique de la CEPEJ sur les professions juridiques : les agents d’exécution, CEPEJ-GT-EVAL(2023) 5 rev, 8 septembre 2023.
[19] T. Douville, La saisie des objets connectés, in R. Laher (dir.), Le 10e anniversaire du code des procédures civiles d’exécution, LexisNexis, 2023, p. 87.
[20] J. Risser, Crypto-actifs et exécution : saisie impossible ?, Rev. prat. rec., novembre 2020, p. 3 ; J. Bruschi et T. Girard-Gaymard, Les voies d’exécution sur crypto-actifs, D. 2024, p. 1686.
[21] J.-J. Ansault, La saisie des actifs numériques », in R. Laher (dir.), Le 10e anniversaire du code des procédures civiles d’exécution, LexisNexis, 2023, p. 97.
[22] UIHJ, Code mondial de l’exécution – Global Code of Enforcement, UIHJ Publishing, mai 2024.
[23] Voy. supra. n° 6 et s.
[24] Adde, G. Payan, Droits de l’Homme et digitalisation de la justice, Journal des tribunaux, Larcier, 26 février 2022, p. 117.
[25] Voy. par ex., Guide des bonnes pratiques, points 50 et s.
[26] Voy supra. n° 10.
[27] Voy. par ex., Guide des bonnes pratiques, points 47 et s.
[28] Il est fait ici référence aux autorités judiciaires ainsi qu’à l’agent d’exécution : Adde, Guide des bonnes pratiques, glossaire « V° Acteurs de l’exécution ».
[29] Recommandation CM/Rec(2020)1 du 8 avril 2020 du Comité des Ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l’Homme.
[30] On parle alors de « génération automatique de texte », à savoir l’« opération par laquelle un grand modèle de langage, en réponse à une instruction générative, produit modifie ou complète automatiquement des textes » : Commission d’enrichissement de la langue française, « Liste relative au vocabulaire de l’intelligence artificielle (termes, expressions et définitions adoptés), JORF 6 septembre 2024, texte 51.
[31] En droit français, selon l’article 4-3 de la loi n° 2016-1547 du 18 novembre 2016 N° Lexbase : L1605LB3, les services en ligne de médiation, de conciliation ou d’arbitrage « ne peuvent avoir pour seul fondement un traitement algorithmique ou automatisé de données à caractère personnel. Lorsque ce service est proposé à l’aide d’un tel traitement, les parties doivent en être informées par une mention explicite et doivent expressément y consentir. Les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre sont communiquées par le responsable de traitement à toute partie qui en fait la demande. Le responsable de traitement s’assure de la maîtrise du traitement et de ses évolutions afin de pouvoir expliquer, en détail et sous une forme intelligible, à la partie qui en fait la demande la manière dont le traitement a été mis en œuvre à son égard ».
Dans le même ordre d’idées, il résulte du premier alinéa de l’article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés N° Lexbase : L8794AGS (dans sa rédaction issue de l’ordonnance n° 2018-1125 du 12 décembre 2018 N° Lexbase : L3271LNH) qu’« aucune décision de justice impliquant une appréciation sur le comportement d’une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne ». Et cet article de se poursuivre dans un second alinéa précisant que – sauf exception – « aucune décision produisant des effets juridiques à l’égard d’une personne ou l’affectant de manière significative ne peut être prise sur le seul fondement d’un traitement automatisé de données à caractère personnel, y compris le profilage ».
[32] Par exemple, en droit de l’Union européenne, l’article 22 du Règlement (UE) n° 2016/679 du 27 avril 2016 N° Lexbase : L0189K8I « RGPD » reconnaît, moyennant certaines exceptions (par exemple fondées sur le consentement explicite de la personne concernée), le « droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire ».
[33] En droit du Conseil de l’Europe, voy. la Recommandation n° 2020/518 CM/Rec (2020) 1 du 8 avril 2020 N° Lexbase : L6757LW8, du Comité des ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l’Homme. Dans cette Recommandation le Comité des ministres énumère non seulement les évolutions positives (ex., gains d’efficacité), mais également les atteintes potentielles aux droits de l’homme (ex., droit à la vie privée et à la protection des données, droit au procès équitable…) consécutives au recours aux « systèmes algorithmiques ». Il est par exemple recommandé aux États de se doter d’institutions nationales de surveillance, de contrôle et d’évaluation des risques en matière d’intelligence artificielle. De même, les États sont invités à conférer, à ces institutions, les « ressources et pouvoirs nécessaires pour enquêter, superviser et coordonner le respect de leur cadre législatif et réglementaire pertinent, conformément à la présente recommandation » (Recommandation n° 2020/518, point 4). Le Comité des ministres insiste également sur l’information de toutes les personnes intéressées. Il s’agit de leur permettre « de comprendre les fonctionnalités et les ramifications des systèmes faisant appel à la prise de décision automatisée », de « prendre des décisions éclairées quant à l’utilisation de ces systèmes », de « profiter des avantages découlant de l’utilisation des systèmes algorithmiques » et de « réduire au minimum l’exposition aux dangers et aux risques qui y sont associés » (Recommandation n° 2020/518, point 7).
[34] Guide des bonnes pratiques, point 34.
[35] En droit du Conseil de l’Europe, voy. CEPEJ, Feuille de route révisée visant à assurer un suivi approprié de la Charte éthique européenne de la CEPEJ sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, 9 décembre 2021, CEPEJ (2021) 16. Ce document mentionne in fine la nécessité d’activités ciblées de sensibilisation et de formation en visant expressément les juges, les procureurs et les avocats. Les agents d’exécution pourraient opportunément être ajoutés à cette énumération.
Pour ce qui est des droits nationaux, voy. not l’article L. 312-9 du Code de l’éducation (français) N° Lexbase : L4020MMT, s’agissant de la sensibilisation aux bons usages de l’IA.
[36] Adde, G. Payan, Standards professionnels des huissiers de justice et autres agents d’exécution au prisme de la digitalisation de la Justice civile : perspectives européennes, Journal des tribunaux, Larcier, 14 septembre 2024, p. 477.
[37] Adde, Intelligence artificielle et professionnels du droit : les nécessités d’une acculturation, Colloque organisé à la faculté de droit de Toulon, le 14 octobre 2024.
[38] Cour de district des États-Unis, S.D. New York le 22 juin 2023 (22-cv-1461/PKC) : décision citée par N. Fricero, Propos conclusifs, in Intelligence artificielle et professionnels du droit : les nécessités d’une acculturation, Colloque organisé à la faculté de droit de Toulon, le 14 octobre 2024.
[39] Cour constitutionnelle colombienne, arrêt T-323, Blanca contre EPS, 2 août 2024 : M. Fandino, J. del Carmen Ortega et S. Gil, Comment un juge devrait-il utiliser l’IA ? Une première réponse avec une décision de la Cour constitutionnelle de Colombie [en ligne] (consulté le 19 octobre 2024). Adde, S. Mauclair, Les impacts des systèmes d’intelligence artificielle sur les libertés et droits fondamentaux et les pratiques professionnelles, in Intelligence artificielle et professionnels du droit : les nécessités d’une acculturation, Colloque organisé à la faculté de droit de Toulon, le 14 octobre 2024.
[40] À rapprocher avec Commission européenne, Proposition de directive du Parlement européen et du Conseil modifiant la directive 2013/11/UE relative au règlement extrajudiciaire des litiges de consommation N° Lexbase : L5054IXH, ainsi que les directives (UE) 2015/2302 N° Lexbase : L6878KUB, (UE) 2019/2161 N° Lexbase : L0929LUX et (UE) 2020/1828 N° Lexbase : L8833LYS, COM (2023) 649 final, 17 octobre 2023 (spéc. art. 1er, § 3, b). Adde, N. Fricero et G. Payan, Conclusion générale –, in P. Gielen, (dir.), L’huissier de justice : le tiers de confiance, Bruylant, 2024, p. 605 (spéc. p. 608).
[41] Par exemple, Guide des bonnes pratiques, points 25 et s.
[42] Guide des bonnes pratiques, point 25.
[43] J. Bruschi et T. Girard-Gaymard, « Les voies d’exécution sur crypto-actifs », D. 2024, p. 1686.
© Reproduction interdite, sauf autorisation écrite préalable
newsid:491239