Lexbase Contentieux et Recouvrement n°8 du 19 décembre 2024 : Voies d'exécution

[Actes de colloques] Défis et possibilités de l'intégration de l'IA dans les essais et l’exécution forcée : devrions-nous interdire ou réglementer ?

Lecture: 27 min

N1235B37

Citer l'article

Créer un lien vers ce contenu

[Actes de colloques] Défis et possibilités de l'intégration de l'IA dans les essais et l’exécution forcée : devrions-nous interdire ou réglementer ?. Lire en ligne : https://www.lexbase.fr/article-juridique/113876015-actesdecolloquesdefisetpossibilitesdelintegrationdeliadanslesessaisetlexecutionforcee
Copier

par Pierre Iglesias (FR), Délégué aux Affaires Européennes et Internationales, Chambre Nationale des Commissaires de Justice

le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

L’Intelligence Artificielle (IA) est depuis quelques années communément défini comme un ensemble de technologies et de méthodes qui permettent à des ordinateurs et logiciels de simuler des fonctions cognitives humaines telles que la perception, le raisonnement, l’apprentissage et la prise de décision.

L’article 3 du Règlement européen n° 2024/1689 N° Lexbase : L1054MND définit l’IA comme « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels »

L’objectif de l’IA est de reproduire, d’imiter ou d’augmenter certaines capacités humaines pour réaliser des tâches complexes de manière autonome ou semi autonome.

Il existe différents types d’IA classés communément en fonction de leurs missions. Dans un premier temps, il existe l’IA Faible, conçue pour accomplir des tâches spécifiques sans véritable compréhension ou conscience. Elle est courante dans des applications d’assistants vocaux ou encore dans les Chats bots. Dans un deuxième temps, il existe l’IA Forte qui est pour l’instant en état théorique, et viserait à égaler ou dépasser l’intelligence humaine dans une grande variété de domaine. L’IA Générale pourrait à terme comprendre, apprendre et s’adapter de manière similaire à l’intelligence humaine. Dans un troisième temps, l’IA dite « Apprentissage automatique » est une sous-catégorie d’IA qui repose sur des algorithmes qui permettent d’apprendre à partir de données et d’améliorer leurs performances au fil du temps. Enfin l’IA dite « Apprentissage profond », est une machine d’apprentissage construite sur un réseau de neurones artificiels inspirés du cerveau humain pour traiter une grande quantité de données non structurées.

Généralement, l’IA permet d’automatiser des processus répétitifs, ce qui améliore l’efficacité, elle apprend des données et ajuste ses décisions en fonction des nouvelles informations et est capable de prendre des décisions en analysant d’énormes volumes de données tout en les mettant en balance avec les tendances du moment.

L’IA est la naissance d’un nouvelle être doué de raisonnement, qui a pour vocation de faciliter et enrichir les activités humaines. 

Le champ infini de cet IA questionne, il fait peur et génère des débats importants notamment sur l’éthique, la sécurité mais encore sur l’impact social.

Vous m’avez demandé de travailler sur la place de l’IA dans le procès et l’exécution des décisions de justice, pour déterminer si nous devions interdire ou plutôt réglementer l’IA.

À titre liminaire, je vous propose avant d’apporter la réponse à cette question hautement débattue, de regarder concrètement la place que l’IA peut prendre dans le cadre de nos activités quotidiennes.

Compte tenu de la définition ci-dessus précisée, nous comprenons très rapidement la place que l’IA peut prendre dans nos activités. Elle pourra en effet nous faciliter le travail, nous permettre d’améliorer la gestion de nos offices et accroitre nos rentabilités mais surtout et avant tout, elle permettra d’améliorer l’accès à la justice en offrant des possibilités beaucoup plus larges.

I. L’IA et l’exécution des décisions de justice

L’IA joue un rôle incontournable ment positif et présente des avantages précieux.

L’IA permet d’automatiser les taches, elles simplifient les taches régulières comme la gestion des dossiers, les relances pour irrespect des engagements pris, le suivi des procédures générales mais encore l’envoi de notifications diverses en fonction de la données traitées. 

Cette automatisation permet aux professionnels que nous sommes mais également à nos collaborateurs, de se concentrer de manière plus efficace sur des points précis et complexes.

Elle permet d’analyser les données recueillies et ainsi connaitre avec précision les statistiques de recouvrement sur des affaires déterminées en fonction des profils poursuivis. L’IA oriente des lors le professionnel de l’exécution sur des dossiers complexes et lui permets d’accorder un temps priorisé sur des questions dont le résultat mathématique est moins évident.

La Chambre Nationale des commissaires de Justice Française travaille sur l’intégration de l’IA dans les process de signification, notamment pour joindre à la signification des notes de compréhension adaptée, et individualisée. Cela aurait pour conséquence de rendre encore plus intelligible le jargon judiciaire que nous maitrisons telle une deuxième langue mais qui, parfois peut être bien compliqué pour des profanes.

Le contexte de l’exécution des décisions de justice en France connait, comme dans beaucoup d’autres pays du monde, une augmentation croissante de l’agressivité et place les professionnels de l’exécution dans des cas de danger, que désormais, grâce à l’IA, nous pourrions anticiper.

Enfin, l’Europe est entrée dans cycle commun de réduction des délais judiciaires. 

L’ancien ministre de la Justice Éric Dupond-Moretti a inauguré la politique de l’amiable afin d’inciter les professionnelles à s’orienter vers les modes alternatifs de règlement des différends. Nous pouvons penser qu’en fonction des données, l’IA puisse être utilisée pour simplifier la résolution des conflits et ainsi, accélérer la clôture de certaines affaires.

II. Les limites de l’IA dans l’exécution des décisions de justice

L’IA a des avantages certains mais son développement présentes des limites importantes et des questionnements sérieux notamment en notre matière.

J’entends planer l’argument générique de l’opposition au développement de cette intelligence : « L’IA va tuer les métiers et les emplois ». C’est un risque qu’il serait malhonnête d’occulter. 

Cependant l’automatisation générale dans le monde de la justice semble impossible tant elle exige une dimension humaine où chaque cas est unique et mérite une attention individualisée.

La réussite de l’IA dépend des données qu’elle étudie. Si ces données sont biaisées, l’IA peut devenir un amplificateur de décisions injustes ou un reproducteur de discriminations existantes.

Les professionnels de l’exécution sont « LE » tiers de confiance de la Justice, et en cette qualité, il garanti aux justiciables ainsi qu’aux acteurs de la justice une transparence certaine. 

Afin de répondre à cet impératif, l’IA judiciaire devra contourner la problématique de l’opacité des algorithmes, et permettre aux droits de la défense de s’exercer pleinement.

Enfin, dans le cadre de nos exercices, nous récoltons, sans s’en rendre compte, un nombre important de données protégées. L’IA judiciaire se nourrit des données recueillis, par conséquent, elle sera automatiquement limitée par nos obligations déontologiques et professionnelles relatives à la protection des données.

Faut-il, donc, interdire ou règlementer l’IA judiciaire ?

Nous aurions pu avoir un échange philosophique sur cette question avec des arguments d’un coté protectionnistes et des arguments de rigueur d’un autre coté, mais cette question a été historiquement solutionnée par le règlement européen 2024/1689 du 13 Juin 2024 baptisé « l’IA ACTE », qui interdit et règlemente en même temps en fonction des IA et des activités dans lesquelles elles sont développées.

La commission européenne a en effet proposé le premier cadre réglementaire de l’Union Européenne pour l’IA.

L’objectif affiché est « d’améliorer le fonctionnement du marché intérieur en établissant un cadre juridique uniforme, en particulier pour le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d’intelligence artificielle (ci-après dénommés «systèmes d’IA») dans l’Union, dans le respect des valeurs de l’Union, de promouvoir l’adoption de l’intelligence artificielle (IA) axée sur l’humain et digne de confiance tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux consacrés dans la Charte des droits fondamentaux de l’Union européenne (ci-après dénommée «Charte»), y compris la démocratie, l’état de droit et la protection de l’environnement, de protéger contre les effets néfastes des systèmes d’IA dans l’Union, et de soutenir l’innovation. Le présent règlement garantit la libre circulation transfrontière des biens et services fondés sur l’IA, empêchant ainsi les États membres d’imposer des restrictions au développement, à la commercialisation et à l’utilisation de systèmes d’IA, sauf autorisation expresse du présent règlement »

Ce cadre propose que les systèmes d’IA soient analysés et classés en fonction du risque qu’ils présentent pour les utilisateurs. 

Le Parlement Européen souhaite que l’utilisation de l’IA soit « sure, transparents, traçables, non discriminatoires et respectueux de l’environnement ».

Selon l’IA ACT, il existe des règles précises en fonction du niveau de risque.

  • Si le risque est inacceptable, c’est-à-dire que le système est considéré comme une menace pour les personnes, dans ce cas, l’IA est INTERDITE. (Article 5)

« Si l’IA peut être utilisée à de nombreuses fins positives, elle peut aussi être utilisée à mauvais escient et fournir des outils nouveaux et puissants à l’appui de pratiques de manipulation, d’exploitation et de contrôle social. De telles pratiques sont particulièrement néfastes et abusives et devraient être interdites, car elles sont contraires aux valeurs de l’Union relatives au respect de la dignité humaine, à la liberté, à l’égalité, à la démocratie et à l’état de droit, ainsi qu’aux droits fondamentaux consacrés dans la Charte, y compris le droit à la non-discrimination, le droit à la protection des données et à la vie privée et les droits de l’enfant. »

  • Si le risque est élevé, c’est-à-dire que le système a un impact négatif sur la sécurité ou les droits fondamentaux. Dans ce cas, il faut distinguer les systèmes utilisés dans les produits tels que les jouets et les systèmes appartenant à des domaines spécifiques tels que l’application de la loi. Si le système est dit « à haut risque », l’IA devra être évaluée avant sa mise sur le marché et sera contrôlée tout au long de son cycle.
  • Si le risque n’est pas élevé, tel que les IA Générative comme ChatGPT, elles devront se conformer aux exigences de transparences ainsi qu’à la législation de l’Union sur les droits d’auteurs. Concernant les IA descriptives, l’IA ACT impose au nom de la transparence que les rendus soient étiquetés comme ayant été générés par l’IA.

Selon cette révolution européenne à dimension mondiale, l’application de la loi et de facto, l’IA judiciaire sont classées au titre des risques élevés.

Cela signifie que l’IA ne sera pas interdite mais qu’il faudra la règlementer avec attention, tout en ayant en tête les domaines où les systèmes d’IA font encourir aux citoyens des risques inacceptables.

Nathalie Fricero écrit dans la revue des commissaires de justice : 

« Selon le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024, les systèmes d’IA utilisés dans le domaine de la justice sont classés à haut risque, en raison de leur impact sur l’état de droit, les libertés individuelles ainsi que le droit à un recours effectif et à accéder à un tribunal impartial : tout système destiné à l’exécution des décisions de justice doit être considéré comme à haut risque. Il en va de même, selon le même Règlement, des systèmes destinés à être utilisés par une autorité judiciaire ou pour le compte de celle-ci pour aider les autorités judiciaires à rechercher et à interpréter les faits et la loi et à appliquer la loi à un ensemble concret de faits. Il faut ajouter dans cette catégorie les systèmes d’IA destinés à être utilisés par des organismes de règlement extrajudiciaire des litiges lorsque les résultats des procédures de règlement extrajudiciaire des litiges produisent des effets juridiques pour les parties »

Tel un professionnel de l’exécution qui est régi par un cadre normatif stricte, gage de sa qualité de tiers de confiance, l’IA judiciaire devra respecter une réglementation nationale et sera soumise au contrôle des juridictions nationales sur saisine des citoyens.

Donc, l’IA judiciaire ne peut être interdite, cependant, sa réglementation s’impose. 

(6) « Compte tenu de l’incidence majeure que l’IA peut avoir sur nos sociétés et de la nécessité de bâtir la confiance, l’IA et son cadre réglementaire doivent impérativement être élaborés dans le respect des valeurs de l’Unionconsacrées à l’article 2 du traité sur l’Union européenne, des droits et libertés fondamentaux prévus par les traités, et, conformément à l’article 6 du traité sur l’Union européenne, de la Charte. »

(8) « Un cadre juridique de l’Union établissant des règles harmonisées sur l’IA est donc nécessaire pour favoriser le développement, l’utilisation et l’adoption de l’IA dans le marché intérieur, tout en garantissant un niveau élevé de protection des intérêts publics, comme la santé et la sécurité, et de protection des droits fondamentaux, y compris la démocratie, l’état de droit et la protection de l’environnement, tels qu’ils sont reconnus et protégés par le droit de l’Union ».

Comme nous l’avons vu, la place de l’IA dans l’exécution des décisions de justice se concentre sur la gestion d’une étude, sur les activités monopolistiques mais également sur les activités hors monopole telles que le constat.

En 2019, le GEHN IA a fixé les bases de l’IA, en construisant sept lignes directrices en matière d’éthique pour une IA digne de Confiance.

« Action humaine et contrôle humain » renvoient au fait que les systèmes d’IA sont développés et utilisés comme un outil au service des personnes, qui respecte la dignité humaine et l’autonomie de l’individu, et qui fonctionne de manière à pouvoir être contrôlé et supervisé par des êtres humains. 

« Robustesse technique et sécurité » renvoient au fait que les systèmes d’IA sont développés et utilisés de manière qu’ils soient techniquement robustes en cas de problème et résilients aux tentatives visant à en corrompre l’utilisation ou les performances afin de permettre à des tiers d’en faire une utilisation abusive, et à réduire le plus possible les atteintes involontaires. 

« Respect de la vie privée et gouvernance des données » renvoient au fait que les systèmes d’IA sont développés et utilisés conformément aux règles en matière de respect de la vie privée et de protection des données, dans le cadre d’un traitement de données répondant à des normes élevées en matière de qualité et d’intégrité.

« Transparence » renvoie au fait que les systèmes d’IA sont développés et utilisés de manière à permettre une traçabilité et une explicabilité appropriées, faisant en sorte que les personnes réalisent qu’elles communiquent ou interagissent avec un système d’IA, que les déployeurs soient dûment informés des capacités et des limites de ce système d’IA et que les personnes concernées soient informées de leurs droits. 

« Diversité, non-discrimination et équité » renvoient au fait que les systèmes d’IA sont développés et utilisés de manière à inclure des acteurs divers et à promouvoir l’égalité d’accès, l’égalité de genre et la diversité culturelle, tout en évitant les effets discriminatoires et les biais injustes, qui sont interdits par le droit de l’Union ou le droit national. 

« Bien-être sociétal et environnemental » renvoie au fait que les systèmes d’IA sont développés et utilisés d’une manière durable et respectueuse de l’environnement, mais aussi de manière que tous les êtres humains en profitent, tout en surveillant et en évaluant les effets à long terme sur l’individu, la société et la démocratie.

Ces bases posées de l’IA Digne de Confiance affectée au tiers de confiance, me permets d’étudier la règlementation de l’IA judiciaire dans l’exécution des décisions de justice, en fonction du cadre d’activité rencontré.

III. L’IA et la gestion interne d’une étude - L’IA à faible risque.

Selon l’étude de Goldman Sachs parue en 2023 : trois cents millions d'emplois à temps plein pourraient être menacés par des IA génératives en Europe et aux Etats-Unis. Dans la zone euro, les postes les plus concernés par un remplacement seraient les fonctions administratives, et de support (45%) ainsi que les cadres et les métiers qualifiés comme le juridique (34 %).

L’Article 6-3 du Règlement européen n° 2024/1689 N° Lexbase : L1054MND prévoit :

« 3. Par dérogation au paragraphe 2, un système d’IA visé à l’annexe III n’est pas considéré comme étant à haut risque lorsqu’il ne présente pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, y compris en n’ayant pas d’incidence significative sur le résultat de la prise de décision.

Le premier alinéa s’applique lorsqu’une des conditions suivantes est remplie : 

a) le système d’IA est destiné à accomplir un tâche procédurale étroite ; 

b) le système d’IA est destiné à améliorer le résultat d’une activité humaine préalablement réalisée ; 

c) le système d’IA est destiné à détecter les constantes en matière de prise de décision ou les écarts par rapport aux constantes habituelles antérieures et n’est pas destiné à se substituer à l’évaluation humaine préalablement réalisée, ni à influencer celle-ci, sans examen humain approprié ; ou 

d) le système d’IA est destiné à exécuter une tâche préparatoire en vue d’une évaluation pertinente aux fins des cas d’utilisation visés à l’annexe III. »

Il convient d’entendre par système d’IA un système qui n’a pas d’incidence substantielle sur le résultat de la prise de décision qu’elle soit humaine ou automatisée. 

Dans les cas où une ou plusieurs des conditions ci-après sont remplies, il pourrait s’agir d’un système d’IA qui n’a pas d’incidence substantielle sur le résultat de la prise de décision.

  • la première de ces conditions devrait être que le système d’IA est destiné à accomplir une tâche procédurale étroite, comme transformer des données non structurées en données structurées, classer les documents entrants par catégories ou détecter les doublons parmi un grand nombre d’applications. Ces tâches sont par nature si étroites et limitées qu’elles ne présentent que des risques limités, qui ne sont pas exacerbés par une utilisation d’un système d’IA dans un contexte répertorié parmi les utilisations à haut risque dans la liste figurant en annexe du présent règlement ;
  • la deuxième condition devrait être que la tâche effectuée par le système d’IA est destinée à améliorer le résultat d’une activité humaine préalablement réalisée, susceptible d’être utile aux fins des utilisations à haut risque énumérées dans une annexe du présent règlement. Compte tenu de ces caractéristiques, le système d’IA n’ajoute qu’une couche supplémentaire à une activité humaine, ce qui présente par conséquent un risque réduit. Cette condition s’appliquerait par exemple aux systèmes d’IA destinés à améliorer la façon dont un document est rédigé, pour lui donner un ton professionnel ou un style académique ou pour l’adapter à un message de marque défini ;
  • la troisième condition devrait être que le système d’IA est destiné à détecter les constantes en matière de prise de décision ou les écarts par rapport aux constantes habituelles antérieures. Le risque serait réduit parce que l’utilisation du système d’IA intervient après la réalisation d’une évaluation humaine et n’est pas destinée à se substituer à celle-ci ni à l’influencer, sans examen humain approprié. Il s’agit par exemple des systèmes d’IA qui, compte tenu de certaines constantes habituelles observées chez un enseignant au niveau de la notation, peuvent être utilisés pour vérifier a posteriori si l’enseignant s’est éventuellement écarté de ces constantes, de manière à signaler d’éventuelles incohérences ou anomalies ;
  • la quatrième condition devrait être que le système d’IA est destiné à exécuter une tâche qui n’est qu’un acte préparatoire à une évaluation pertinente aux fins des systèmes d’IA repris dans la liste figurant dans une annexe du présent règlement et, partant, la probabilité que les sorties produites par le système présentent un risque pour l’évaluation postérieure est très faible. Cette condition s’applique, entre autres, aux solutions intelligentes de traitement des fichiers, qui comprennent diverses fonctions telles que l’indexation, la recherche, le traitement de texte et le traitement de la parole ou le fait de relier des données à d’autres sources de données, ou aux systèmes d’IA utilisés pour la traduction de documents initiaux.

IV. L’IA et les Activités Monopolistiques (Signification et Exécution) : l’IA à haut risque

Selon le Règlement européen, « certains systèmes d’IA destinés à être utilisés pour l’administration de la justice et les processus démocratiques devraient être classés comme étant à haut risque, compte tenu de leur incidence potentiellement significative sur la démocratie, l’état de droit, les libertés individuelles ainsi que le droit à un recours effectif et à accéder à un tribunal impartial. En particulier, pour faire face aux risques de biais, d’erreurs et d’opacité, il convient de classer comme étant à haut risque les systèmes d’IA destinés à être utilisés par une autorité judiciaire ou pour le compte de celle-ci pour aider les autorités judiciaires à rechercher et à interpréter les faits et la loi, et à appliquer la loi à un ensemble concret de faits. Les systèmes d’IA destinés à être utilisés par des organismes de règlement extrajudiciaire des litiges à ces fins devraient également être considérés comme étant à haut risque lorsque les résultats des procédures de règlement extrajudiciaire des litiges produisent des effets juridiques pour les parties. L’utilisation d’outils d’IA peut soutenir le pouvoir de décision des juges ou l’indépendance judiciaire, mais ne devrait pas les remplacer, car la décision finale doit rester une activité humaine. »

Dans l’ouvrage « L’algorithmisassions de la justice » dirigé par le Professeur Clavier, la question semble avoir été traitée, mais uniquement au-travers du prisme des activités monopolistiques du commissaire de justice (signification et exécution des décisions de justice).

« La Justice est une caractéristique fondamentale de tout État de droit. Les principes qui garantissent son bon fonctionnement sont-ils menacés par l’émergence, ces dernières années, de puissants outils algorithmiques ? 

L’intelligence artificielle nourrie de données issues des décisions de justice offre aux professionnels du droit de nouveaux moyens de répondre aux attentes des justiciables, comme une meilleure prévisibilité de l’issue de leur contentieux. 

L’open data des décisions de justice amplifie le mouvement et favorise un marché du droit qui voit apparaître de nouveaux acteurs nommés Legaltechs. À l’évidence, le mouvement est profond et durable. »

L’IA judiciaire est une IA à haut risque et à ce titre, doit faire l’objet d’une réglementation et d’un contrôle stricte.

Le Règlement européen encadre ces systèmes et impose les contours suivants :

  • mise en place d’un système de gestion des risques, c’est-à-dire un processus itératif continu qui est planifié et se déroule sur l’ensemble du cycle de vie d’un système d’IA à haut risque et qui doit périodiquement faire l’objet d’un examen et d’une mise à jour méthodiques.
  • développement sur la base de jeux de données d’entrainement, de validation et de tests encadrés. (article 10)
  • soumission d’une documentation technique à jour, avant que le système d’IA ne soit mis sur le marché ou mis en service
  • mise en œuvre d’une technique permettant d’enregistrer automatiquement les évènements tout au long de la vie de l’IA, afin de garantir un degré de traçabilité en adéquation avec le risque encouru.
  • obligation de transparence – IA accompagnée d’une notice d’utilisation dans un format numérique approprié comprenant des informations concises, complètes, exactes et claires.
  • contrôle Humain obligatoire pendant la période d’utilisation
  • exigence d’exactitude, de robustesse et de cybersécurité pendant tout le long du cycle de vie de l’IA.

Cependant, il ne faut pas que l’IA établisse une espèce de score social, en classant les personnes en fonction de leur comportement, de leur statut socio-économique ou encore en fonction de leurs caractéristiques personnelles.

(31) « Les systèmes d’IA permettant la notation sociale des personnes physiques par des acteurs publics ou privés peuvent conduire à des résultats discriminatoires et à l’exclusion de certains groupes. Ils peuvent porter atteinte au droit à la dignité et à la non-discrimination et sont contraires aux valeurs d’égalité et de justice. Ces systèmes d’IA évaluent ou classent les personnes physiques ou les groupes de personnes physiques en fonction de plusieurs points de données liées à leur comportement social dans divers contextes ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites pendant un certain temps. La note sociale obtenue à partir de ces systèmes d’IA peut conduire au traitement préjudiciable ou défavorable de personnes physiques ou de groupes entiers dans des contextes sociaux qui sont dissociés du contexte dans lequel les données ont été initialement générées ou collectées, ou à un traitement préjudiciable disproportionné ou injustifié au regard de la gravité de leur comportement social. Il y a donc lieu d’interdire les systèmes d’IA impliquant de telles pratiques de notation inacceptables et produisant de tels effets préjudiciables ou défavorables. Cette interdiction ne devrait pas avoir d’incidence sur les évaluations licites des personnes physiques qui sont pratiquées dans un but précis, dans le respect du droit de l’Union et du droit national »

Si tel est le cas, l’IA passe de haut risque à risque inacceptable et dans ce cas, elle est « INTERDITE ».

Article 5 – 1 c « les pratiques en matière d’IA suivantes sont interdites : la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA pour l’évaluation ou la classification de personnes physiques ou de groupes de personnes au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites, la note sociale conduisant à l’une ou l’autre des situations suivantes, ou aux deux: i) le traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes de personnes dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées à l’origine; ii) le traitement préjudiciable ou défavorable de certaines personnes ou de groupes de personnes, qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci »

La frontière du recueillement des données semble fine et contraint les professionnels de l’exécution à une vigilance certaine.

V. L’IA et le constat – L’IA à usage général

Selon Sylvian Dorol « une constatation purement matérielle est toute situation personnellement constatée par le commissaire de justice au moyen de ses sens, et qu’il n’a pas provoquée par une opération intellectuelle de nature à troubler sa qualité de tiers neutre, indépendant et impartial ».

Selon cette définition, il parait peu probable que l’IA remplace le commissaire de justice constatant. 

La doctrine semble s’accorder sur cette affirmation et ainsi créer une école de pensée résumée les mots de son chef de file Sylvian Dorol « ce qui est compliqué pour l’humain est simple pour une I.A., et ce qui est naturel pour l’humain est difficile pour une I.A ».

La place de l’être humain est affirmée par l’IA ACT mais également rappelé par nombre de professionnel reconnu tel que Daniel ANDLER. Selon ce dernier, « le rôle du corps est fondamental, puisqu’une constatation est en quelque sorte une perception brute du commissaire de justice, il serait impossible de constater sans chair. »

En effet, tout procès-verbal de constat est sélectif : il répond à une demande clairement formulée par le requérant par la vérification personnelle par le commissaire de justice d’éléments matériels.

Si l’IA ne remplaçait pas le Commissaire de Justice constatant, elle serait pour ce dernier un assistant précieux, maximisant sa réactivité et son efficacité. 

L’IA dépend des données qui l’alimentent et elle dépend des sollicitations qu’elle reçoit.

L’IA permet au Commissaires de Justice une analyse rapide des données pertinentes pour lui apporter un cadre de renseignements construisant un socle de compréhension plus large et plus rapide. 

Cependant, le Commissaire de Justice conserve le jugement de l’opportunité du constat.

Conclusion

Les commissaires de justice et les huissiers de justice n’auraient il pas intérêt aujourd’hui de devenir des « déployeurs » (« toute personne physique ou morale, y compris une autorité publique, une agence ou un autre organisme, utilisant sous sa propre autorité un système d’IA, sauf lorsque ce système est utilisé dans le cadre d’une activité personnelle à caractère non professionnel. »)

Sommes-nous, aujourd’hui, acteur de l’histoire ?

Nos réflexions communes vont-elles nous permettre de créer une IA judiciaire respectant les réglementations européennes, le respect des données personnelles et le secret des affaires ? L’IA des agents d’exécutions pourrait-elle être l’IA de la justice, une IA digne de confiance développée et gérée par « LE » Tiers de Confiance ?

newsid:491235

Cookies juridiques

Considérant en premier lieu que le site requiert le consentement de l'utilisateur pour l'usage des cookies; Considérant en second lieu qu'une navigation sans cookies, c'est comme naviguer sans boussole; Considérant enfin que lesdits cookies n'ont d'autre utilité que l'optimisation de votre expérience en ligne; Par ces motifs, la Cour vous invite à les autoriser pour votre propre confort en ligne.

En savoir plus