Lexbase Contentieux et Recouvrement n°8 du 19 décembre 2024

Lexbase Contentieux et Recouvrement - Édition n°8

Procédure civile

[Chronique] Veille – l’actualité de la procédure civile (septembre à novembre 2024)

Lecture: 9 min

N1271B3H

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491271
Copier

par Alexandra Martinez-Ohayon, Rédactrice en chef de la revue Lexbase Contentieux et Recouvrement

Le 19 Décembre 2024

La revue Lexbase Contentieux et Recouvrement vous propose de retrouver dans un plan thématique, une sélection des décisions (I), qui ont fait l’actualité de la procédure civile de septembre à novembre 2024, ainsi que toute l’actualité normative (II), classées par thèmes et mots-clés, pour vous permettre une lecture fluide et pertinente des évolutions récentes.


 

Actualité jurisprudentielle

Demande de dommages-intérêts

Cass. soc., 18 septembre 2024, n° 22-17.737, F-B N° Lexbase : A97355ZL : la demande de dommages-intérêts pour licenciement sans cause réelle et sérieuse présentée par un salarié pour la première fois en cause d’appel au titre du manquement de l’employeur à son obligation de sécurité tend aux mêmes fins que celle, soumise aux premiers juges, qui visait à obtenir l’indemnisation de la rupture du contrat de travail par l’employeur pour manquement à l’obligation de reclassement ; partant la demande doit être déclarée recevable (troisième moyen).

Il appartient aux juges du fond de rechercher eux-mêmes, dans le cadre d’une demande d’indemnité spéciale de licenciement, si l’inaptitude avait au moins partiellement pour origine un accident du travail ou une maladie professionnelle et si l’employeur avait connaissance de cette origine au moment du licenciement (sixième moyen).
Par Laïla Bedja

♦ Référé

Cass. civ. 3, 19 septembre 2024, n° 22-21.831, FS-B N° Lexbase : A97315ZG : toute personne qui justifie d'un intérêt légitime au succès d'une prétention peut introduire une instance en référé et il appartient au juge des référés de se prononcer sur la fin de non-recevoir tirée d'un prétendu défaut de qualité du demandeur en référé, que la contestation de cette qualité par la partie adverse soit ou non sérieuse.

En l'absence de convention contraire, la désignation d'un mandataire auprès du maître de l'ouvrage, pour représenter les membres d’un groupement d’entreprises, que celui-ci soit conjoint ou solidaire, n'a pas pour effet de priver ceux-ci de la possibilité d'agir directement en paiement du coût des travaux réalisés, qu'il s'agisse, dans le cas d'un groupement conjoint, des travaux réalisés par l'entreprise demanderesse à l'action, ou, dans le cas d'un groupement solidaire, du paiement du solde global du marché.

Cass. civ. 2, 3 octobre 2024, n° 22-15.788, F-B N° Lexbase : A936657Z : la Cour de cassation rejette le pourvoi en confirmant la position d’une cour d’appel faisant ressortir qu’elle était saisie d’une difficulté d’exécution d’une ordonnance d’un président d’un tribunal désignant un expert et ayant retenu qu’il n'entrait pas dans les pouvoirs du juge, saisi en référé sur le fondement des articles 834 et 836 du Code de procédure civile, d'autoriser l'expert à pénétrer dans les appartements de l'immeuble de la SCI qui s'y opposait.

Compétence

Cass. civ. 2, 3 octobre-2024, n° 21-24.852, F-B N° Lexbase : A936357W : Il n'entre pas dans les pouvoirs du juge de l'exécution, sauf exception prévue par la loi, de fixer une créance afin d'ordonner une compensation judiciaire avec une autre créance fondée sur un titre exécutoire.

Cass. civ. 2, 3 octobre 2024, n° 22-14.853, F-B N° Lexbase : A935857Q : Les parties ne peuvent écarter les règles de compétence territoriale des juridictions prud’homales au motif que la surcharge alléguée de la juridiction au moment de sa saisine les priverait de la possibilité d’obtenir une décision dans un délai raisonnable.
par Charlotte Moronval

♦ Postulation

Cass. civ. 2, 14 novembre 2024, n° 24-14.167, FS-B, QPC N° Lexbase : A54456GR : les dispositions permettant à un justiciable d'être représenté devant la cour d'appel par le même auxiliaire de justice que devant le tribunal judiciaire, devant lequel s'appliquent les règles de la postulation obligatoire territorialement limitée, tandis que les règles de la postulation ne s'appliquent pas devant le tribunal de commerce, devant lequel les parties peuvent se faire représenter par tout avocat ne porte pas atteinte au principe d'égalité devant la justice.
par Marie Le Guerroué

Procédure d’appel

Cass. civ. 2, 3 octobre 2024, n° 21-24.102, F-B N° Lexbase : A936357W : la caducité d'une déclaration d'appel pour vice de forme affectant sa signification ne peut être prononcée qu'en cas d'annulation de l'acte, après démonstration du grief causé par l'irrégularité.

Cass. civ. 2, 24 octobre 2024, n° 23-12.176, F-B N° Lexbase : A80526BT : Lorsqu’une déclaration d'appel porte la mention « Objet de l'appel : appel total », et ne renvoie pas expressément à un document annexe contenant les chefs critiqués du jugement, la cour d’appel doit rechercher, lorsqu’elle y est invitée, si, même en l'absence de renvoi exprès dans la déclaration d'appel, une annexe comportant les chefs de dispositif du jugement critiqués n'est pas jointe à celle-ci.
par Yannick Ratineau

Cass. civ. 2, 21 novembre 2024, n° 22-18.539, F-B N° Lexbase : A96006HZ : Le délai d’un mois supplémentaire prévu par l’article 911 du code de procédure civile pour notifier les conclusions à une partie n’ayant pas constitué avocat s’applique également au ministre chargé de l’Économie, malgré sa dispense de représentation par avocat.

Principe du contradictoire / note en délibérée

Cass. civ. 2, 3 octobre 2024, n° 22-15.145, F-B N° Lexbase : A936057S : une note en délibéré, lorsqu'elle est recevable, peut être accompagnée de pièces justifiant ce qu'elle énonce, à la condition que les parties soient mises en mesure d'en débattre contradictoirement.

Cass. civ. 2, 21 novembre 2024, n° 22-20.560, F-B N° Lexbase : A95926HQ : Lorsqu’il statue sur une demande de traitement d'une situation de surendettement, le juge doit s’assurer que les observations écrites et les pièces d’un créancier, qui n’est pas présent lors de l'audience, ont été portées à la connaissance du débiteur.
par Vincent Téchené

Autorité de la chose jugée

Cass. civ. 2, 3 octobre 2024, n° 22-20.787, F-B N° Lexbase : A935957R : une ordonnance d'un conseiller de la mise en état statuant sur une fin de non-recevoir est revêtue de l'autorité de la chose jugée et devient irrévocable en l'absence de déféré ; la cour d'appel saisie au fond ne peut, dès lors, statuer à nouveau sur cette fin de non-recevoir.

Péremption

Cass. civ. 2, 10 octobre 2024, n° 22-20.384, FP-B N° Lexbase : A441359C : dans le cadre d’un recours contre une ordonnance de taxe, une fois les formalités légales accomplies, et à moins qu'elles ne soient tenues d’effectuer une diligence particulière mise à leur charge par le premier président, la direction de la procédure échappe aux parties. Dès lors, elles n’ont plus de diligences à accomplir en vue de l'audience à laquelle elles sont convoquées par le greffe ; on ne peut reprocher aux parties de ne pas avoir sollicité la fixation de l’audience pour interrompre le délai de péremption.

Opposition

Cass. civ. 2, 24 octobre 2024, n° 22-15.682, F-B N° Lexbase : A80546BW : le point de départ de l'opposition à une ordonnance portant injonction de payer qui n'a pas été signifiée à personne est, en cas d'intervention d'un créancier à une procédure de saisie des rémunérations, la date de notification de l'intervention au débiteur.
par Yannick Ratineau

Tierce opposition

Cass. civ. 2, 24 octobre 2024, n° 22-16.073, F-B N° Lexbase : A80536BU : n’est pas recevable la tierce opposition d’un débiteur qui ne tend pas à faire rétracter ou réformer un jugement au profit du tiers qui l'attaque, mais vise seulement, en prévision d'un éventuel recours du créancier à son encontre, à fixer le montant de sa dette.
par Yannick Ratineau

Procédure orale

Cass. civ. 2, 24 octobre 2024, n° 22-15.908, FP-B N° Lexbase : A80556BX : dans la procédure orale, il ne peut être présumé qu'un moyen relevé d'office par le juge a été débattu contradictoirement dès lors que l’une des parties, dispensée de comparaître, n'était pas présente à l'audience et qu'il ne ressort pas de la décision qu'elle ait été, au préalable, invitée à formuler ses observations.
par Yannick Ratineau

Rétractation ordonnance sur requête

Cass. civ. 2, 21 novembre 2024, n° 22-16.763, F-B N° Lexbase : A95886HL : la Cour de cassation précise que la partie défenderesse à une demande de mesure d'instruction, ordonnée sur le fondement de l'article 145 du Code de procédure civile, ou demanderesse à la rétractation d'une telle mesure, ne peut être considérée comme la « partie perdante » au sens de l'article 696 du code précité ; cette mesure d'instruction n'étant pas destinée à éclairer le juge d'ores et déjà saisi d'un litige mais n'étant ordonnée qu'au bénéfice de celui qui la sollicite en vue d'un éventuel futur procès au fond.

Absence de renvoi aux pièces

Cass. civ. 2, 28 novembre 2024, n° 22-16.664, F-B N° Lexbase : A29446KA : la Cour de cassation précise que sauf à priver l'appelant du droit à l'accès à un tribunal consacré par l'article 6, § 1, de la Convention de sauvegarde des droits de l'Homme et des libertés fondamentales, l'absence de renvoi aux pièces produites dans les conclusions, dès lors qu'elle ne soit pas assortie de sanction, n'exonère pas la cour d'appel de son obligation d'examiner les pièces régulièrement versées aux débats et clairement identifiées dans les conclusions prises au soutien de ses prétentions.

II. Actualité normative

Circ. DACS, n° 06/24, du 28-11-2024, Conséquences de l'abrogation au 1er décembre 2024, par la décision n° 2023-1068 QPC du 17 novembre 2023 du Conseil constitutionnel, des mots " des contestations qui s'élèvent à l'occasion de l'exécution forcée " au premier alinéa de l'article L. 213-6 du code de l'organisation judiciaire N° Lexbase : L6935MRB : publiée au bulletin officiel du ministère de la Justice (BOMJ), le 28 novembre 2024, une circulaire ayant pour objet de tirer les conséquences de l'abrogation au 1er décembre 2024, par la décision n° 2023-1068 du 17 novembre 2023, par laquelle le Conseil constitutionnel a déclaré contraires à la Constitution certaines dispositions portant sur l’office du juge de l’exécution dans le cas des contestations portées à l’encontre des mesures d’exécution forcée de nature mobilière.

newsid:491271

Procédure civile

[Questions à...] Entretien avec Martin Plissonnier

Lecture: 1 min

N1286B3Z

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491286
Copier

par Sylvian Dorol, Commissaire de justice, Expert près l’UIHJ, Directeur scientifique de la revue Lexbase Contentieux et Recouvrement, Spécialiste de l’administration judiciaire de la preuve

Le 19 Décembre 2024

Dans le cadre de notre série d'entretiens avec des personnalités clés du domaine judiciaire, nous avons interviewé Martin Plissonnier, Maître de conférences en droit privé à l’Université Paris-Nanterre et Co-directeur du DU MARD. Il nous livre son analyse sur une question complexe : que se passe-t-il lorsque le juge accorde une ordonnance sur requête en vertu de l’article 145 du Code de procédure civile sans fixer de délai d'exécution ? Une réflexion sur les incertitudes du droit actuel et les enjeux pratiques pour les parties en présence.


 

 

Martin Plissonnier, Maître de conférences en droit privé, Co-directeur du DU MARD, Membre du Centre de droit civil des affaires et du contentieux économique (CEDCACE) Université Paris-Nanterre


Sylvian Dorol (SD) : Une question nous a été posée récemment : « J'ai saisi le juge sur le fondement de l'article 145 du Code de procédures civile N° Lexbase : L1497H49. Le magistrat a répondu favorablement à ma demande. Cependant, il n'a pas précisé le délai dans lequel le commissaire de justice doit réaliser sa mission. Quelle conclusion en tirer ? ». Quelle est la position de l’universitaire ?

Martin Plissonnier (MP) : Un rappel peut-être avant de commencer : ce cas n’est pas le plus courant ! Le plus souvent, le juge prévoit un délai. C’est normal car l’ordonnance est rendue sur requête, c’est-à-dire sans contradiction et le juge doit veiller à ce que son ordonnance ne devienne pas un outil librement employé dans le temps par le requérant et, potentiellement, détourné de sa fonction.

Lorsque le juge donne un délai pour exécuter la mesure, on a alors une réponse du droit positif qui est donnée, non pas par les textes, mais par la jurisprudence. Un arrêt de la deuxième chambre civile du 14 décembre 2006 (Cass. civ. 2, 14 décembre 2006, n° 04-20.673, FS-P+B N° Lexbase : A8998DS3) indique en effet que lorsque les opérations sont exécutées au-delà du délai qui est donné par le juge, l’autorisation donnée par le juge de les pratiquer est caduque. Dès lors, les opérations qui sont exécutées sur le fondement de cette ordonnance peuvent être frappées de nullité, à défaut pour elles de disposer d’un fondement juridique. Cette solution est tout à fait claire.

Admettons néanmoins que la situation se présente : le juge ne donne pas de délai à son ordonnance sur requête. Quelles sont les conséquences ?

En pratique, même si le juge n’ordonne pas de délai, le requérant a, en théorie, un intérêt à exécuter rapidement. Le plus souvent en effet, la mesure est recherchée pour conserver des éléments de preuve qui ont plutôt vocation à disparaître ou à être dissimulés. C’est donc une exécution rapide qui est fréquemment recherchée.

Mais admettons encore que le requérant n’exécute pas ou omette d’exécuter pendant un certain temps. Dans ce cas, la question initiale peut se poser.

Dans cette hypothèse, le droit positif ne fournit pas la réponse. Et, à mon sens, il n'y a pas de réponse toute faite.

J'ai pensé que peut-être on pouvait raisonner par la nature d'une ordonnance sur requête qui, en fait, est exécutoire au seul vu de la minute (CPC, art. 495 N° Lexbase : L6612H7Z et  CPCEx, art. R. 111-3 N° Lexbase : L6612LEM). Ne peut-on pas considérer que lui serait applicable le délai de prescription décennal applicable aux titres exécutoires en vertu de l’article L. 111-4 du Code des procédures civiles d’exécution N° Lexbase : L6613LEN ?

J'ai aussi trouvé un arrêt qui ne portait pas sur ce sujet (il traitait de la question de l’effet suspensif de l’appel) mais qui va un peu dans le même sens. Un arrêt du 7 novembre 2002 (Cass. civ. 2, 7 novembre 2002, n° 00-22.189, F-P+B N° Lexbase : A6723A3E) dans lequel la Cour de cassation a décidé que l'ordonnance sur requête est exécutoire au seul vu de la minute « tant qu'elle n'a pas été rétractée ». La formule laisse entendre que l’ordonnance sur requête est exécutoire sans limite de temps.

Ces hypothèses n’apparaissent pas satisfaisantes car on imagine mal qu'un requérant puisse garder sous le coude pendant dix ans une ordonnance sur requête sans subir la moindre sanction.

Toutefois, à défaut de texte prévoyant explicitement une sanction, il faudrait que le juge en découvre une. Dans le silence des textes, le juge ne pourrait-il considérer que l’ordonnance sur requête ne prévoyant aucun délai est nécessairement exposée à une caducité ? Il y aurait un beau débat sur le point de savoir si la jurisprudence peut tirer du silence des textes une sanction aussi forte que celle de la caducité. Ce n'est pas évident, mais je pense que cela serait possible.

Par conséquent, au requérant qui aurait tardé à exécuter, j'aurais plutôt tendance à conseiller de tenter l'exécution en prévalant, si nécessaire, de l’absence de sanction prévue dans les textes ou la jurisprudence. Cependant, il conviendrait de garder à l’esprit qu’il existe un risque que l'adversaire, au moment de la rétractation ou en saisissant le juge de droit commun, se prévale d'une caducité non prévue par les textes. En tout cas, il n'y a pas de réponse précise donnée par le droit positif sur ce point-là.

SD : Mais, la question de la référence à la prescription du titre exécutoire dans le Code des procédures civiles d'exécution, c'est lorsque le titre exécutoire constate une créance liquide, exigible et certaine. Nous sommes sur une ordonnance rendue sur requête rendue au visa de l’article 145 du Code de procédure civile, on est sur une recherche de preuve… Ne serait-il pas possible d'évoquer l'idée selon laquelle, puisque l'article 145 vise une mesure probatoire avant tout procès, que l'ordonnance suivrait la prescription de l'action du bénéficiaire ? L’expression de l’article 145 « avant tout procès » pousserait en ce sens : l’ordonnance serait valide jusqu’au moment où le procès est engagé ou ne peut plus l’être.

MP : À mon sens, pas nécessairement. On a trois arguments pour le titre : le premier nous dit que l’ordonnance est exécutoire (CPCEx, art. R. 111-3) ; le deuxième que constitue un titre toute décision de justice (CPCEx, art. L. 111-3) ; et un troisième que la prescription applicable à ce type de titre est de dix ans (CPCEx, art. L. 111-4). Lorsqu'il y a un titre exécutoire qui est obtenu, le phénomène d'interversion joue, et donc on aurait plutôt un délai de prescription celui des titres exécutoires qui pourrait prendre le relais.

SD : Donc, la question reste à trancher, soit par la doctrine, soit par le droit positif, sachant qu'à l'heure actuelle, on est davantage sur une question théorique, mais qui pourrait se présenter en pratique.

MP : Oui, ça pourrait tout à fait se présenter en pratique et c'est une question sur laquelle, a priori, il n'y a pas de réponse. Et on est un peu embêté parce qu’en l’absence de réponse, on est enclin à répondre qu'il n'y a pas de sanction et donc que c'est possible. Mais néanmoins, il y a quelque chose qui heurte un peu la logique de la requête 145, à avoir finalement une ordonnance sur requête dont l’exécution n’est soumise à aucun un délai, et donc qui pourrait être exécutée longtemps après l’obtention de l’ordonnance sur requête. Mais prudence : l’absence de sanction ne signifie pas nécessairement l’absence de conséquences.

SD : Est-ce qu'on ne pourrait pas évoquer une sorte de « délai raisonnable » alors ?

MP : Si, ce serait un argument à développer, l'idée selon laquelle, finalement, on ne peut pas exécuter une ordonnance sur requête au-delà d'un délai raisonnable. On pourrait imaginer le fait que le juge raisonne à partir d'un standard juridique qu'il aurait à apprécier pour justifier la création d'une sanction. Ça me paraît être une piste envisageable pour combler l’absence textuelle de sanction.

On pourrait aussi penser que la question pourrait naturellement se régler par l’introduction d’un procès au fond. Puisque l’article 145 du Code de procédure civile érige en condition l’absence de procès au fond, l’introduction d’un procès au fond rendrait de facto caduque l’ordonnance sur requête. Toutefois, on a là-dessus de la jurisprudence. Au stade de la rétractation, le juge apprécie l’existence d’un procès au fond en se plaçant au jour de l’introduction de la requête. Cela limite l’idée que l’introduction d’un procès au fond puisse rendre nécessairement caduque l’ordonnance sur requête. Cependant, devant le juge du fond lui-même, on peut penser qu’un tel argument pourrait être avancé.

SD : Dernière question : est-ce que vous pensez que ce problème nécessite d'être tranché par le législateur par une modification de l'article 495 du Code de procédure civile ou la création d'un nouveau texte ou, puisque pour l'instant le problème ne se présente pas, ce n’est pas la peine ?

MP : Je ne suis pas sûr qu'il y ait une nécessité absolue de voir le problème tranché par le législateur. Tout dépend du point de vue de qui on se place.

En termes de sécurité juridique, ce serait évidemment préférable. Le législateur pourrait apporter une précision textuelle comme il le fait déjà pour l’ordonnance d’injonction de payer ou la mesure conservatoire.

Mais la jurisprudence pourrait tout aussi bien apporter la précision nécessaire.

newsid:491286

Procédure civile

[Point de vue...] Pour une réécriture de l’article L. 213-6 du Code de l’organisation judiciaire

Lecture: 30 min

N1228B3U

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491228
Copier

par Thomas Tailleur, Diplômé du master 2 droit privé fondamental, Université Paris Nanterre, Titulaire de l’examen d’accès à l’INCJ

Le 19 Décembre 2024


Mots-clés : juge de l’exécution • compétence d’attribution • office du juge • Code de l’organisation judiciaire • droit de la consommation • relevé d’office • QPC 

Depuis désormais quelques jours, le juge de l’exécution est au cœur des débats. Nul n’a pu ignorer la circulaire de la Direction des affaires civiles et du sceau (DACS) du 28 novembre 2024 affirmant que le juge de l’exécution n’est plus compétent pour statuer sur les contestations portées à l’encontre des procédures d’exécution de nature mobilière. Dès lors, la question du siège de la compétence de la juridiction de l’exécution est plus que jamais à l’ordre du jour. Se pose alors une double question : celle de la réécriture du premier alinéa de l’article L. 213-6 du Code de l’organisation judiciaire qui semble être une tâche bien difficile, et celle plus globale d’un encadrement législatif de l’office du juge de l’exécution sous l’impulsion du droit européen. 


 

Créé par la loi n° 91-650 du 9 juillet 1991 N° Lexbase : L9124AGZ et son décret d’application n° 92-755 du 31 juillet 1992 N° Lexbase : L9125AG3, le juge de l’exécution a été perçu comme « l’axe principal » [1] de la réforme des voies d’exécution. Il faut dire qu’avant la réforme, le contentieux de l’exécution était éparpillé entre de nombreuses juridictions (tribunal civil et « Justice de paix », puis tribunal d’instance ou tribunal de commerce, voire même juge des référés en cas d’urgence), créant ainsi une véritable situation anarchique. En conséquence, nombreux étaient les incidents de compétence conduisant à de multiples renvois et, in fine, à des procédures sans fin [2]. Dès lors, est intervenue dans l’esprit parlementaire l’idée selon laquelle un juge chargé de l’exécution pourrait unifier le contentieux de l’exécution forcée. C’est ainsi qu’est né l’article L. 311-12 N° Lexbase : L7912HND, devenu L. 213-6 du Code de l’organisation judiciaire N° Lexbase : L7740LPD, modifié depuis à quatre reprises afin d’élargir le champ de compétence du juge de l’exécution. 

Toutefois, depuis le 1er décembre 2024, le juge de l’exécution n’est plus compétent pour statuer sur les contestations portées à l’encontre des procédures d’exécution de nature mobilière [3]. Ceci est la conséquence de l’abrogation, au sein de l’alinéa premier de l’article L. 213-6 du Code de l’organisation judiciaire, des mots « des contestations qui s’élèvent à l’occasion de l’exécution forcée » jugés inconstitutionnels par une décision du Conseil constitutionnel du 17 novembre 2023 (Cons. const., décision n° 2023-1068 QPC, du 17 novembre 2023 N° Lexbase : A61411ZH).

Voici donc que, de nouveau, le contentieux de l’exécution est réparti entre différentes juridictions : le tribunal judiciaire, d’une part, qui est désormais compétent en matière de contestations qui s’élèvent à l’occasion des mesures d’exécution forcée de nature mobilière et en matière d’expulsion conformément à sa compétence de droit commun (COJ. art. L. 211-3 N° Lexbase : L7708LP8) et le juge de l’exécution, d’autre part, qui reste compétent pour trancher les contestations qui s’élèvent à l’occasion de la saisie immobilière, pour autoriser les saisies conservatoires et statuer sur leurs contestations, pour connaître des demandes en réparation fondées sur l’exécution ou l’inexécution dommageables des mesures d’exécution forcée ou conservatoires et de la saisie des rémunérations, jusqu’au 1er juillet 2025 (COJ. art. L. 213-6, alinéas 2 et suivants). 

Cette situation, assurément temporaire, est la conséquence de la dissolution de l’Assemblée nationale annoncée le 9 juin 2024, laquelle a interrompu les travaux parlementaires en cours, empêchant ainsi l’adoption d’une loi nouvelle avant le 1er décembre de la même année.  

Dès lors, et plus que jamais, se pose la question de la réécriture de l’article L. 213-6 du Code de l’organisation judiciaire. Si une réécriture paraît opportune afin d’encadrer l’évolution de l’office du juge de l’exécution sous l’impulsion du droit de la consommation (II.), la tâche paraît bien ardue à la suite de la censure du Conseil constitutionnel (I.)

I. Une complexe réécriture de l’alinéa premier de l’article L. 213-6 du Code de l’organisation judiciaire

Par une décision question prioritaire de constitutionnalité (QPC) du 17 novembre 2023, le Conseil constitutionnel a déclaré que les mots « des contestations qui s’élèvent à l’occasion de l’exécution forcée » étaient contraires à la Constitution. Cette censure est malheureuse à deux égards, d’une part car la jurisprudence avait construit depuis plus de trente ans la compétence et les pouvoirs du juge de l’exécution sur le fondement de cet alinéa (A) et d’autre part car cette censure est inopportune au regard de sa justification et des conséquences excessives qu’elle entraîne (B).

A. L’alinéa premier de l’article L. 213-6 du Code de l’organisation judiciaire : une construction continue

Dès son entrée en vigueur, l’alinéa premier de l’article L. 213-6 du Code de l’organisation judiciaire, lequel dispose que « le juge de l'exécution connaît des difficultés relatives aux titres exécutoires et des contestations qui s'élèvent à l'occasion de l'exécution forcée, même si elles portent sur le fond du droit à moins qu'elles n'échappent à la compétence des juridictions de l'ordre judiciaire » a soulevé des difficultés. Dans un premier temps, cet alinéa a conduit certains justiciables à distinguer formellement, ainsi que le fait le texte, la connaissance, par le juge de l’exécution, des difficultés relatives aux titres exécutoires et les contestations qui s’élèvent à l’occasion de l’exécution forcée. La Cour de cassation a toutefois rapidement mis fin à ce mouvement en déclarant que « le juge de l'exécution ne peut être saisi de difficultés relatives à un titre exécutoire qu'à l'occasion des contestations portant sur les mesures d'exécution forcée engagées ou opérées sur le fondement de ce titre, et n'a pas compétence pour connaître de demandes tendant à remettre en cause le titre dans son principe, ou la validité des droits et obligations qu'il constate » [4]. En rendant cet avis, la haute juridiction met fin à la dissociation entre les difficultés relatives aux titres exécutoires et les contestations qui s’élèvent à l’occasion de l’exécution forcée. En tout état de cause, qu’il s’agisse d’une difficulté sur un titre exécutoire ou d’une contestation, ces dernières doivent porter sur les mesures d’exécution d’ores et déjà engagées. Ainsi que l’a affirmé Roger Perrot, la Cour de cassation « ressoude » [5] les deux éléments de l’article L. 213-6 du Code de l’organisation judiciaire. 

Pour autant, cet avis de la Cour de cassation s’est attiré les foudres de la doctrine [6]. En effet, l’avis interdit toute remise en cause du titre exécutoire, peu important que cette remise en cause intervienne, ou non, à l’occasion d’une mesure d’exécution forcée. Au surplus, la Cour de cassation n’opérait aucune distinction entre les titres exécutoires, qu’il s’agisse autant d’une décision de justice ou de titres non-judiciaires, notamment l’acte notarié. Très concrètement, à la différence des décisions judiciaires dans lesquelles le juge va opérer un contrôle des engagements des parties à travers un débat contradictoire, le notaire, dans un acte notarié, ne fait qu’authentifier un engagement des parties sans en trancher les difficultés éventuelles et sans aucun débat [7].

Ces différentes critiques doctrinales portant sur les pouvoirs du juge de l’exécution à l’égard des titres exécutoires non-judiciaires ont entraîné un important revirement de jurisprudence. Le 18 juin 2009, dans une décision à l’importante publicité, la Cour de cassation revient sur sa position initiale et admet que le juge de l’exécution puise connaître de demandes tendant à remettre en cause le titre exécutoire, dès lors qu’il ne s’agissait pas d’une décision de justice, à l’occasion de l’exécution forcée [8].

Cette nouvelle position retenue par la Cour de cassation, si elle introduisait une hiérarchie entre les titres exécutoires [9], présentait l’intérêt de la simplicité. Les parties n’avaient plus à se demander quel était le juge compétent pour statuer sur la nullité d’un titre exécutoire non-judiciaire. Si la validité du titre était en jeu et qu’aucune mesure d’exécution n’avait été engagée, c’était le juge du fond qui était compétent. En revanche, si la contestation était débattue à l’occasion d’une mesure d’exécution forcée, quand bien même elle n'était pas née à l’occasion d’une mesure d’exécution, c’était au juge de l’exécution qu’il revenait de se prononcer afin de pouvoir statuer sur le sort de la mesure. Ainsi, il était mis fin aux questions préjudicielles en la matière qui créaient une perte de temps non-négligeable. On retrouve ainsi une solution plus conforme à l’article L. 213-6 du Code de l’organisation judiciaire, en ce que la mesure d’exécution forcée ou de la mesure conservatoire marque le point de départ de sa compétence (d’autant que la Cour de cassation a, peu de temps après cette décision, précisé que ces pouvoirs du juge de l’exécution lui permettant de remettre en cause un acte notarié trouvaient pareille application si la contestation s’élevait, non pas à l’occasion d’une mesure d’exécution forcée, mais à l’occasion d’une mesure conservatoire [10]).

En somme, l’ambiguïté rédactionnelle de l’alinéa premier de l’article L. 213-6 du Code de l’organisation judiciaire, tel que pensé par le législateur de 1991 avait été compensée par le travail constant à la fois de la doctrine et des juridictions judiciaires, au premier rang desquelles figure la Cour de cassation. Or, par sa censure, le Conseil constitutionnel a annihilé toute cette construction sans envisager toute la complexité d’une future réécriture.  

B. L’alinéa premier de l’article L. 213-6 du COJ : une censure inopportune du Conseil constitutionnel

Nous l’avons dit, le Conseil constitutionnel a déclaré les mots « des contestations qui s’élèvent à l’occasion de l’exécution forcée » inconstitutionnels, en ce qu’ils seraient entachés d’incompétence négative dans les conditions affectant le droit à un recours juridictionnel effectif. En l’espèce, une requérante reprochait à diverses dispositions du Code des procédures civiles d’exécution et du Code de l’organisation judiciaire, dont l’article L. 213-6, de ne pas prévoir, en cas de vente par adjudication à la suite d’une saisie de droits incorporels, une possible contestation devant le juge de l’exécution du montant de mise à prix. Or, d’après cette requérante, ne pas pouvoir contester le montant d’une mise à prix pourrait conduire à vendre des droits incorporels à un prix manifestement insuffisant. 

Le Conseil constitutionnel rappelle qu’il résulte de l’article 16 [11] de la Déclaration des Droits de l’Homme et du Citoyen (DDHC) de 1789 « qu’il ne doit pas être porté d’atteinte substantielle au droit des personnes intéressées d’exercer un recours effectif devant une juridiction » [12]. Partant, le Conseil rajoute que si l’article L. 213-6 du COJ donne compétence au juge de l’exécution pour connaître des contestations qui s’élèvent à l’occasion de l’exécution forcée, il résulte toutefois de la jurisprudence de la Cour de cassation qu’en cas de vente par adjudication des droits saisis, le créancier fixe unilatéralement le montant de la mise à prix, qu’aucune contestation de ce montant ne peut être élevée devant le juge de l’exécution et que, par ailleurs, « aucune autre disposition ne permet au débiteur de contester devant le juge judiciaire le montant de la mise à prix fixé par le créancier » [13]. En conséquence, le Conseil constitutionnel conclut qu’au « regard des conséquences significatives qu’est susceptible d’entraîner pour le débiteur la fixation du montant de la mise à prix des droits saisis, il appartenait au législateur d’instaurer une voie de recours » [14].

Cette déclaration d’inconstitutionnalité du Conseil constitutionnel interpelle en ce que le Conseil constitutionnel affirme qu’il appartenait au législateur d’instaurer une « une voie de recours ». Or, les voies de recours sont des moyens procéduraux mis à disposition des plaideurs ou des tiers pour obtenir un examen nouveau d’une affaire qui a déjà été jugée. Il s’agit d’un instrument procédural permettant de contester les jugements. Or, lorsque le débiteur souhaite contester le montant d’une mise à prix fixé par le créancier, il n’est jamais question d’obtenir un examen nouveau d’une affaire déjà jugée, il n’y a aucun jugement rendu. En réalité, le Conseil constitutionnel semble avoir assimilé le droit au recours effectif, lequel implique, lorsqu’un de nos droits a été bafoué, d’avoir accès à un juge et le droit à une voie de recours, à un double degré de juridiction, qui, quant à lui, n’a jamais été consacré comme un droit fondamental par le Conseil constitutionnel [15]. Cette formule est d’autant plus déplaisante que le juge de l’exécution n’a pas été pensé par les pouvoirs publics comme une voie de recours, en témoigne l’interdiction posée à l’article R. 121-1 du Code des procédures civiles d’exécution N° Lexbase : L8665LYL qui lui interdit de modifier le dispositif de la décision de justice qui sert de fondement aux poursuites. Or, en affirmant qu’il y a inconstitutionnalité car le débiteur ne peut pas contester la mise à prix, en cas de saisie de droits incorporels, devant le juge de l’exécution alors qu’il appartenait au législateur d’instaurer une voie de recours, le Conseil constitutionnel assimile le juge de l’exécution à une voie de recours.

En outre, la décision de renvoi de la Cour de cassation précisait qu’un recours (et non pas une voie de recours) devant le juge de l’exécution existe en matière de saisie immobilière en cas de vente par adjudication de l’immeuble si le montant de la mise à prix est manifestement insuffisant [16]. Ce recours figure à l’article L. 322-6 du Code des procédures civiles d’exécution N° Lexbase : L5884IRD. Le problème qui se pose alors avec la saisie de droits incorporels est que les dispositions relatives à cette saisie, à savoir les articles L. 231-1 N° Lexbase : L5861IRI à L. 233-1 N° Lexbase : L5862IRK du code précité, ne prévoient pas ce recours devant le juge de l’exécution. Or, il est justifié que le juge de l’exécution ne puisse pas être saisi pour la mise à prix de telles valeurs incorporelles, tout simplement car le tiers saisi ne supporte aucune obligation d’informations. Très concrètement, le juge de l’exécution ne peut pas fixer un montant de mise à prix car il ne dispose d’aucune information sur la valeur des droits incorporels. Fondamentalement, ce sont les saisies de valeurs incorporelles qui doivent faire l’objet d’une refonte, pas le siège de la compétence du juge de l’exécution...

Par conséquent, cette inconstitutionnalité est malheureuse, elle réduit à néant le travail colossal opéré par les tribunaux depuis la loi de 1991 et pose de nouveau la question de la rédaction des compétences du juge de l’exécution. Or, aucune rédaction ne saurait convenir tant le champ de compétence du juge de l’exécution est d’une remarquable originalité. En effet, cet article a été rédigé de façon abstraite. En affirmant que le juge de l’exécution connaît des « difficultés relatives aux titres exécutoires et des contestations qui s'élèvent à l'occasion de l'exécution forcée », le lecteur doit, de lui-même, interpréter le champ des actions recevables devant celui-ci. 

À titre comparatif, en matière familiale, le choix opéré par le Code de l’organisation judiciaire a été de lister toutes les actions et matières qui relèvent de la compétence du juge aux affaires familiales (JAF). Ainsi, l’article L. 213-3 du Code de l’organisation judiciaire prévoit, par exemple, que le JAF connaît de différentes actions liées à « l’exercice de l’autorité parentale », encore « au changement de prénom ». De manière identique, les dispositions des articles L. 213-4-1 N° Lexbase : L7246LP3 à L. 213-4-8 N° Lexbase : L7253LPC du Code de l’organisation judiciaire listent précisément les matières et les différentes actions dont le juge des contentieux de la protection a vocation à connaître. 

En tout état de cause, cette quête de précision poursuivie par le Code de l’organisation judiciaire rencontrait un obstacle difficilement surmontable vis-à-vis du juge de l’exécution, à savoir que les contestations en matière d’exécution forcée ne peuvent être listées, elles sont extrêmement nombreuses et peuvent porter sur le fond du droit. Dès lors, tenter de définir toutes les contestations possibles qui peuvent survenir lors de l’exécution d’une mesure conservatoire ou d’une mesure d’exécution forcée aurait été et serait un travail considérable qui conduirait à l’entrée en vigueur d’un nombre conséquent de dispositions législatives. Cette solution ne paraît pas opportune d’autant qu’elle soulève un risque majeur pour le législateur : celui d’omettre certaines contestations.

II. Une opportune réécriture de l’article L. 213-6 du Code de l’organisation judicaire

Si la réécriture de l’alinéa premier de l’article L. 213-6 du Code de l’organisation judiciaire paraît être une tâche bien délicate qui ne semblait pas nécessaire, il n’en demeure pas moins qu’une réécriture de l’article précité serait opportune afin d’encadrer l’évolution de l’office du juge de l’exécution. En effet, le droit de la consommation, par le prisme des clauses abusives, n’a de cesse d’évoluer, notamment sous l’impulsion du juge européen (A), entraînant ainsi une évolution de la jurisprudence interne. Confronté à cette évolution, le législateur a un rôle à jouer afin de préserver la juridiction de l’exécution et limiter tout empiètement du juge de l’exécution sur les autres juridictions (B).

A. Une constante évolution de l’office du juge sous l’impulsion européenne

Le développement du droit de la consommation, notamment à l’aune de la jurisprudence sur les clauses abusives, a entraîné de fortes perturbations sur l’office du juge, et, in fine, du juge de l’exécution. En effet, le droit de la consommation est un droit-fonction visant à protéger le consommateur. Or, celui-ci, qu’il soit conseillé ou non (et l’affirmation est d’autant plus vraie lorsque le consommateur n’a pas de conseil), peut omettre de se prévaloir de dispositions qui lui sont pourtant favorables. Ainsi, « l’office du juge peut-il s’avérer crucial si l’on veut éviter que le droit de la consommation ne reste lettre morte » [17]. Dès lors, pour éviter de penser un droit qui demeurerait ineffectif, des réflexions sur l’office du juge ont immédiatement été menées par la Cour de justice de l’Union européenne par le biais de la question préjudicielle [18].

Cette protection du consommateur passe majoritairement par le mécanisme des clauses abusives, dont le régime a été explicité par une importante directive 93/13/CEE du Conseil du 5 avril 1993 N° Lexbase : L7468AU7. Après avoir considéré que le juge national disposait d’une simple faculté de relever d’office de telles clauses [19], la Cour de justice des communautés européennes (CJCE) a fait muter cette faculté en obligation [20]. La solution est sans équivoque : le juge national est tenu d’examiner d’office le caractère abusif d’une clause contractuelle dès qu’il dispose des éléments de droit et de fait nécessaires à cet effet. Lorsqu’il considère une telle clause comme étant abusive, il ne l’applique pas, sauf si le consommateur s’y oppose. 

Cette conception étendue de l’office du juge par le prisme des clauses abusives sous l’impulsion européenne paraissait pourtant mal s’accommoder avec l’office du juge telle qu’interprétée par l’Assemblée plénière de la Cour de cassation. En effet, en 2007, l’Assemblée plénière de la Cour de cassation rend l’arrêt « Dauvin » [21] dans lequel elle considère que si le juge possède une obligation dans l’opération de qualification, il ne possède qu’une simple faculté, sauf règles particulières, de relever le moyen de droit applicable au litige. La tâche reviendrait alors aux parties sous une limite toutefois, les règles particulières qui ont rapidement été assimilées à l’ordre public alors même qu’un arrêt de la Cour de cassation avait précisé que la méconnaissance des dispositions d’ordre public du code de la consommation n’entraînait qu’une simple faculté, pour le juge, de relever d’office [22].

Il a donc été nécessaire de mettre en conformité le droit français avec la jurisprudence européenne à la suite de l’arrêt « Pannon GSM ». Pour ce faire, a été inclus, par la loi n° 2014-344 N° Lexbase : L7504IZX dite loi « Hamon » du 17 mars 2014 au sein du Code de la consommation, un article L. 141-4 N° Lexbase : L7865IZC, devenu R. 632-1 N° Lexbase : L0942K9R, qui impose au juge de relever d’office l’application d’une clause abusive. C’est ici une première intervention du législateur pour se conformer au droit européen !

Le mouvement européen ne s’est pas arrêté là. En 2017, la CJUE précise que le juge est tenu de contrôler le caractère abusif des clauses soumises à son examen dès lors que ce contrôle n’a pas été effectué lors d’un premier examen juridictionnel, nonobstant l’autorité de la chose jugée attachée à ce dernier [23]. Enfin, en 2022, c’est de nouveau la CJUE qui, par deux arrêts spectaculaires rendus le même jour [24], est venue influencer l’office du juge, cette fois-ci, au stade de l’exécution forcée ! Dans ces arrêts, dont le plus explicite est l’arrêt « Ibercaja Banco » , la Cour affirme que l’autorité de la chose jugée ne fait pas obstacle à ce que le juge de l’exécution examine d’office, au stade de l’exécution forcée, le caractère éventuellement abusif des clauses contractuelles dès lors que cet examen n’a pas été opéré par la première décision juridictionnelle ou que les motifs de celle-ci n’attestent pas de l’existence dudit contrôle. 

La Cour de cassation, liée par l’interprétation faite par la CJUE des dispositions et actes communautaires, a rapidement adopté la solution préconisée par les arrêts du 17 mai 2022. C’est ainsi que, le 8 février 2023, la Chambre commerciale de la Cour de cassation affirme, au visa, notamment, de la directive du Conseil du 5 avril 1993, que « le juge de l’exécution, statuant lors de l’audience d’orientation, à la demande d’une partie ou d’office, est tenu d’apprécier, y compris pour la première fois, le caractère éventuellement abusif des clauses contractuelles qui servent de fondement aux poursuites sauf lorsqu'il ressort de l'ensemble de la décision revêtue de l'autorité de la chose jugée que le juge s'est livré à cet examen » [25]

Ces arrêts ont soulevé de nombreuses inquiétudes quant à l’avenir de l’autorité de la chose jugée, certains affirmant qu’elle était sabordée, d’autres préservée. En tout état de cause, il demeure certain que désormais, rien ne doit s’opposer à un contrôle des clauses abusives à n’importe quel stade du procès, dès lors que le juge dispose des éléments de fait et de droit nécessaires à cet effet et que le premier juge n’a pas opéré ce contrôle. Malheureusement, en imposant ce contrôle automatique du caractère abusif des clauses à tout juge, y compris au juge de l’exécution au stade de l’exécution forcée, ni la CJUE ni la Cour de cassation n’ont envisagé les conséquences de la reconnaissance d’une clause abusive sur l’avenir du titre exécutoire contenant une telle clause.

B. Une intervention législative nécessaire à la préservation de la juridiction de l’exécution 

La question du sort de la décision de justice prononcée sur le fondement d’une clause déclarée postérieurement abusive est une question primordiale car imposer au juge un devoir de contrôle des clauses abusives nonobstant l’autorité de la chose jugée attachée à la décision fondant les poursuites sans, toutefois, s’intéresser au sort de cette fameuse décision au cœur des poursuites, c’est occulter une part du raisonnement. Au demeurant, il ne faut pas oublier que le juge de l’exécution, en tant que juridiction spécialisée, ne doit posséder que les seuls pouvoirs nécessaires à l’exercice de sa fonction, à savoir, en principe, trancher les contestations qui s’élèvent à l’occasion des mesures d’exécution forcée ou conservatoires. C’est précisément pour cela que la Cour de cassation a toujours refusé, depuis plus de trente années, de confier au juge de l’exécution le pouvoir de remettre en cause les titres exécutoires de premier rang, d’autant plus qu’il s’agit d’une interdiction légale (CPCEx, art. R. 121-1 N° Lexbase : L8665LYL).

La difficulté de cette question a conduit le juge de l’exécution parisien, saisi de plusieurs affaires [26] relatives à des contrats de prêt à la consommation dans lesquelles il lui était demandé d’examiner les clauses de déchéance du terme, de les déclarer non écrites et, en conséquence, d’annihiler les décisions de justice qui étaient le fondement de différents commandements de payer aux fins de saisie-vente, à solliciter une demande d’avis à la Cour de cassation afin de demander, notamment, s’il peut annuler la décision contenant la clause abusive et statuer, dans ce cas, au fond sur la demande en paiement. 

Dans un avis rendu le 11 juillet 2024, la Cour de cassation a pu répondre que « il résulte, d'une part, des pouvoirs du juge de l'exécution, et, d'autre part, du droit de l'Union et de la jurisprudence de la CJUE, que le juge de l'exécution, qui répute non écrite une clause abusive, ne peut ni annuler le titre exécutoire, ni le modifier. Il ne peut pas non plus statuer sur une demande en paiement, hors les cas prévus par la loi.

Le titre exécutoire étant privé d'effet en tant qu'il applique la clause abusive réputée non écrite, le juge de l'exécution est tenu de calculer à nouveau le montant de la créance selon les dispositions propres aux mesures d'exécution forcée dont il est saisi » [27].

Très concrètement, par cet avis, la Cour de cassation confirme sa position selon laquelle le juge doit examiner le caractère abusif d’une clause, nonobstant toute autorité de la chose jugée attachée à la première décision. La Cour ne fait toutefois pas œuvre de clarté dans sa réponse. Certes le juge de l’exécution doit contrôler le caractère abusif d’une clause, mais elle interdit strictement toute annulation ou modification de la décision de justice contenant la clause abusive. Pourtant, nul justiciable ne se satisferait de la reconnaissance symbolique d’une clause abusive. C’est ainsi que la haute juridiction affirme que le titre exécutoire est privé d’effet. 

Inévitablement, la sécurité juridique est négligée et l’autorité du juge sérieusement amputée. Ainsi que l’affirment certains auteurs, « On ne peut que regretter que l’occasion n’ait pas été saisie d’engager la discussion par une forme de résistance à l’approche de la Cour de justice, comme le font parfois les Cours d’appel envers la Cour de cassation » [28].

En somme, l’état actuel du droit positif est préoccupant. D’une part, il devient difficile d’articuler le juge de l’exécution et l’appel, voie ordinaire de critique du jugement rendu par la juridiction de premier degré. En effet, en l’état actuel, à compter du moment où l’erreur ou l’omission du premier juge concerne une clause abusive, alors le justiciable a deux solutions. Soit il interjette appel (qui n’a plus d’effet suspensif), soit il décide de résister jusqu’au jour où le créancier déclenche une mesure d’exécution forcée ou conservatoire et, dans ce cas, le juge de l’exécution sera compétent pour statuer sur cette contestation. Évidemment, au regard de l’engorgement des Cours d’appel, un justiciable bien conseillé aurait intérêt à rester inactif, à attendre que se déclenche une voie d’exécution afin de contester celle-ci devant le juge de l’exécution et bénéficier d’un traitement plus rapide de son affaire. Or, à long terme, cette réflexion entraînerait un effet pervers, à savoir l’écroulement du juge de l’exécution sous le poids de ses sollicitations.

D’autre part, ce débat autour de l’office du juge de l’exécution doit être replacé dans un contexte général de crise de la justice civile. Pour rappel, l’arrêt « Pannon GSM » rendu par la CJCE en 2009 impose à tout juge de contrôler le caractère abusif d’une clause dès lors qu’il dispose des éléments de droit et de fait nécessaires à cet effet. Dès lors, par principe, aucun débat ne devrait se poser au stade de l’exécution forcée, le premier juge ayant déjà opéré le contrôle. Fondamentalement, la question de l’office du juge de l’exécution est le constat de l’échec de la jurisprudence « Pannon GSM », lequel s’explique essentiellement par le manque des moyens de la justice qui ne permettent pas un investissement humain et intellectuel suffisant de la part des magistrats. 

Enfin, il ne faut pas oublier que le juge de l’exécution, bien qu’étant le gardien de l’équilibre entre les intérêts du débiteur et du créancier, est le garant du droit fondamental à l’exécution d’une décision de justice, droit fondamental reconnu par la CEDH et par le Conseil constitutionnel [29] en tant que véritable composante du procès équitable. Dès lors, il y a un certain paradoxe à demander au juge de l’exécution, protecteur de l’exécution des décisions de justice, de ne pas appliquer celles-ci au profit de la protection du consommateur contre les clauses abusives.

En tout état de cause, afin de limiter l’empiètement du juge de l’exécution sur les autres juridictions, afin de préserver la juridiction de l’engorgement et pour que le juge de l’exécution se concentre sur l’essence même de sa mission, une intervention législative permettrait d’éviter toute généralisation du relevé d’office par la Cour de cassation qui l’a déjà faite par le passé en généralisant le relevé d’office du juge national à l’ensemble des règles d’ordre public issu du droit de l’Union européenne [30]. Ce faisant, la protection du consommateur serait assurée, le droit français serait en conformité avec la jurisprudence européenne et si atteinte à l’autorité négative de la chose jugée il y a, celle-ci serait strictement circonscrite au seul domaine des clauses abusives. 

Par conséquent, voici une proposition à inclure au sein de l’article L. 213-6 du Code de l’organisation judiciaire : 

« Le juge de l'exécution ne peut ni modifier le dispositif de la décision de justice qui sert de fondement aux poursuites, ni en suspendre l’exécution. 

Toutefois, lorsqu’il est saisi d’une contestation émanant d’un consommateur ou d’un non-professionnel relative au recouvrement d’une créance issue de son rapport contractuel avec le professionnel, le juge de l'exécution est tenu, même en présence d'une précédente décision revêtue de l'autorité de la chose jugée sur le montant de la créance, sauf lorsqu'il ressort de l'ensemble de la décision revêtue de l'autorité de la chose jugée que le juge s'est livré à cet examen, et pour autant qu'il dispose des éléments de droit et de fait nécessaires à cet effet, d'examiner d'office si les clauses insérées dans le contrat ne revêtent pas un caractère abusif ». [31].

À retenir : 

  • la réécriture du premier alinéa de l’article L. 213-6 du Code de l’organisation judiciaire est une tâche bien difficile. Quelle que soit la future rédaction adoptée, il y a fort à parier que la jurisprudence et la doctrine joueront, de nouveau, un rôle déterminant dans l’encadrement de la compétence du juge de l’exécution. 
  • la jurisprudence de la Cour de justice de l’Union Européenne a entraîné une extension conséquente de l’office du juge de l’exécution qui doit désormais examiner d'office si les clauses insérées dans le contrat conclu entre le professionnel et le non-professionnel ou consommateur ne revêtent pas un caractère abusif. Cette extension met en péril le fonctionnement de la juridiction de l’exécution et notre sécurité juridique. Dès lors, une intervention législative serait opportune afin de circonscrire ces dérives au seul domaine des clauses abusives. 
 

[1] J. Thyraud, compte rendu intégral des débats parlementaires, seconde session ordinaire 1989-1990, 23ème séance, 15 mai 1990, JO, p. 815.

[2] Sur l’historique de la juridiction de l’exécution antérieure à la création du juge de l’exécution : L. Feuillard, Rép. proc. civ., Dalloz, V° Juge de l’exécution, 2020, n°1. ; R.  Perrot, P. Théry, Procédures civiles d’exécution, 3ème éd. Dalloz, 2013, p. 314.

[3] Circulaire de la Direction des affaires civiles et du Sceau (DACS) du 28 novembre 2024 N° Lexbase : L6935MRB.

[4] Avis, 16 juin 1995, n° 09-50.008, Bull. civ. Avis, n° 9 N° Lexbase : A7379CHR

[5] R. Perrot, Juge de l’exécution. Compétence d’attribution : difficultés relatives aux titres exécutoires, RTD Civ, 1995, p. 691.

[6] Ibid

[7] Il est, ici, utile de préciser qu’il ne s’agit pas de remettre en cause l’autorité du notaire en tant qu’officier public ministériel détenant une parcelle de puissance publique. Si un doute est élevé à l’égard des titres exécutoires non-judiciaires, ce n’est pas un doute portant sur l’instrumentum mais bien un doute portant sur le contenu même du contrat, sur le negotium, de sorte que l’autorité du notaire en est pleinement préservée. 

[8] Cass, civ. 2, 18 juin 2009, n° 08-10.843, Bull. civ. II, n° 165 N° Lexbase : A2954EIA

[9] C. Roth, C. Argouarc’h, J-Cl Commissaires de Justice, Fasc. Unique : Juge de l’exécution, 2023, n° 98.

[10] Cass, civ. 2, 31 janvier 2013, n° 11-26.992, F-P+B N° Lexbase : A6274I47.

[11] DDHC, 26 août 1789, art. 16 : « Toute société dans laquelle la garantie des droits n’est pas assurée, ni la séparation des pouvoirs déterminée, n’a point de Constitution » N° Lexbase : L1363A9D

[12] Cons. const., 17 novembre 2023, n° 2023-1068 QPC, n° 8. 

[13] Ibid, n° 12. 

[14] Ibid, n° 13.

[15] L’article 2 du protocole n° 7 à la Conv. EDH consacre un droit à un double degré de juridiction en matière pénale. Ce texte n’a toutefois aucun équivalent en matière civile, de sorte que les États membres ne sont pas tenus de prévoir une voie de recours contre les jugements rendus en matière civile. 

[16] Cass, civ. 2, 12 septembre 2023, n° 23-12.267, F-D, n° 10 N° Lexbase : A82681GC.

[17] Cass, rapport annuel des études, 2022, p. 11.

[18] Prévue par l’article 267 du TFUE N° Lexbase : L2581IPB.

[19] CJCE, 27 juin 2000, aff. C-240/98 à C-244/98 Océano Grupo Editorial SA c/ Rocío Murciano Quintero, n° 26 N° Lexbase : A5920AYW.

[20] CJCE, 26 octobre 2006, aff. C-168/05, Elisa María Mostaza Claro c/ Centro Móvil Milenium SL, n° 38 N° Lexbase : A0140DSY ;  puis CJCE, 4 juin 2009, Pannon GSM Zrt. c/ Erzsébet Sustikné Gyõrfi, aff. C-243/08, n° 35 N° Lexbase : A9620EHR.

[21] Ass. Plén., 21 décembre 2007, n° 06-11.343, Bull. Ass. plén. n° 10 N° Lexbase : A1175D3W

[22] Cass, civ. 1, 22 janvier 2009, n° 05-20.176FS-P+B+I N° Lexbase : A5557ECS, n° 9. 

[23] CJUE, 26 janvier 2017, aff. C-421/14, Banco Primus SA c/ Jesús Gutiérrez García N° Lexbase : A9995TM7 , n° 76.

[24] CJUE, 17 mai 2022, aff. C‑600/19, Ma c/ Ibercaja Banco SA N° Lexbase : A16647XW ; CJUE, 17 mai 2022, aff. C‑693/19 et aff. C‑831/19, SPV Project 1503 Srl c/ YB N° Lexbase : A16667XY.

[25] Cass, com, 8 février 2023, n° 21-17.763, FS-B N° Lexbase : A97209BM, n° 129, solution ensuite confirmée : Cass, civ, 2, 13 avril 2023, n° 21-14.540, FS-B+R N° Lexbase : A02289P7.

TJ Paris, JEX, 11 janvier 2024, n° 23/00238 N° Lexbase : A32592D3 ; TJ Paris, JEX, 11 janvier 2024, n° 23/00185 N° Lexbase : A32582DZ; TJ Paris, JEX, 11 janvier 2024, n° 20/81791 N° Lexbase : A32602D4.

[27] Cass, avis, 11 juillet 2024, n° 24-70.001, FS-B. 

[28] B. Jost, Le juge de l’exécution et les clauses abusives contenues dans le titre exécutoire (suite)Lexbase Contentieux et Recouvrement, septembre 2024, n° 7 N° Lexbase : N0387B3Q.

[29] CEDH, 19 mars 1997, Req 18357/91, Hornsby c/ Grèce N° Lexbase : A8438AWG ; Cons. const., 6 mars 2015, n° 2014-455 QPC N° Lexbase : A7734NCG.

[30] Cass, ch. mixte, 7 juillet 2017, n° 15-25.651, N° Lexbase : A5557ECS, n° 2. 

[31] Il est précisé qu’une telle réécriture modifiera l’article R. 121-1 du Code des procédures civiles d'exécution qui sera amputé de son second alinéa.

newsid:491228

Voies d'exécution

[Actes de colloques] Publication des actes du 3ème Forum mondial sur l’exécution du 2 décembre 2025 - L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ?

Lecture: 3 min

N1264B39

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491264
Copier

par Alexandra Martinez-Ohayon

Le 19 Décembre 2024

Le 2 décembre 2024, était organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) au Palais de l’Europe de Strasbourg, le 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? ». La revue Lexbase Contentieux et Recouvrement vous propose de retrouver les actes de ce forum.


 

Présentation

L'impact croissant de l'Intelligence Artificielle (IA) dans la justice suscite des défis éthiques, juridiques et techniques liés à son usage dans l’exécution des décisions. L’IA promet une efficacité accrue dans les procédures civiles et commerciales, mais s oulève des préoccupations quant au respect des droits humains et à la transparence des processus. Des instances comme le Conseil de l'Europe et la CEPEJ rappellent l'importance d'encadrer ces technologies pour garantir l’équité et prévenir les biais discriminatoires. Les huissiers de justice (commissaires de justice), en tant que tiers de confiance, jouent un rôle crucial dans la préservation de l’harmonie sociale en s'assurant que la technologie n'empiète pas sur les droits fondamentaux. Une supervision humaine est essentielle pour éviter la déshumanisation de la justice et maintenir un équilibre entre innovation technologique et éthique. Enfin, des pistes pour une IA responsable sont proposées, comme des audits réguliers des algorithmes, la transparence des décisions automatisées et le respect du RGPD, tout en plaidant pour un futur de la justice qui reste inclusif et juste.

Vous pouvez écouter l'enregistrement audio complet du forum en suivant ce lien.

Sommaire

  • Mot de bienvenue de l’UIHJ, par Marc Schmitz, Président de l’Union Internationale des Huissiers de Justice (UIHJ) N° Lexbase : N1189B3G
  • Présentation du thème du 3ème Forum mondial sur l’exécution, L'Intelligence artificielle dans le domaine de la Justice : un enjeu de société, par Patrick Gielen (BE), Secrétaire de l’Union Internationale des Huissiers de Justice (UIHJ), Membre du comité scientifique de la revue Lexbase Contentieux et Recouvrement N° Lexbase : N1190B3H

Première partie : l’IA dans le domaine de la justice

  • Garantir les droits humains dans un environnement juridique automatisé, par Marc Schmitz (BE), Président de l’Union Internationale des Huissiers de Justice (UIHJ) N° Lexbase : N1191B3I

Seconde partie : l’IA dans la procédure d’exécution

  • Les applications spécifiques de l'IA dans l’exécution, par Guillaume Payan, Professeur à l’université de Toulon (France), membre du Conseil scientifique de l’UIHJ N° Lexbase : N1239B3B
  • L’Intelligence Artificielle - un besoin actuel dans les procédures de recouvrement de créances, par Dovile Satkauskiene (LT), Directeur, Chambre des huissiers de justice de Lituanie, Secrétaire général de l'UEHJ N° Lexbase : N1241B3D
  • L'Intelligence Artificielle et constat, par Sylvian Dorol, Commissaire de justice, Expert près l’UIHJ, Directeur scientifique de la revue Lexbase Contentieux et Recouvrement, Spécialiste de l’administration judiciaire de la preuve N° Lexbase : N1287B33
  • L'Intégration de l'Intelligence Artificielle dans les Voies d'Exécution, par Carlos Calvo (LUX), Vice-Trésorier UIHJ N° Lexbase : N1192B3K
  • Digitalisation de la profession d’huissier de justice en Belgique : dernière étape avant l’arrivée de l’IA ?,  par Patrick Gielen (BE), Secrétaire de l’Union Internationale des Huissiers de Justice (UIHJ), Membre du comité scientifique de la revue Lexbase Contentieux et Recouvrement N° Lexbase : N1230B3X
  • Défis et opportunités de l’intégration de l’IA dans les procès et l’exécution forcée : devrions-nous interdire ou réglementer ?, par Ana Arabuli (GO), Responsable du développement des relations internationales du Bureau national de l’exécution de Géorgie N° Lexbase : N1233B33
  • Défis et possibilités de l'intégration de l'IA dans les essais et l’exécution forcée : devrions-nous interdire ou réglementer ?, par Paulo Duarte Pinto (PT), OSAE N° Lexbase : N1234B34
  •  Défis et possibilités de l'intégration de l'IA dans les essais et l’exécution forcée : devrions-nous interdire ou réglementer ?, par Pierre Iglesias (FR), Délégué aux Affaires Européennes et Internationales, Chambre Nationale des Commissaires de Justice N° Lexbase : N1235B37
  • Conclusion, par Patrick Gielen (BE), Secrétaire de l’Union Internationale des Huissiers de Justice (UIHJ), Membre du comité scientifique de la revue Lexbase Contentieux et Recouvrement N° Lexbase : N1261B34

newsid:491264

Voies d'exécution

[Actes de colloques] Mot de bienvenue

Lecture: 2 min

N1189B3G

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491189
Copier

par Marc Schmitz (BE), Président de l’Union Internationale des Huissiers de Justice (UIHJ)

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

Lorsque nous parlons de l'avenir, il est impossible d'ignorer la transformation numérique qui redéfinit chaque secteur, y compris celui de la justice. Ce qui était autrefois considéré comme une simple modernisation - la numérisation de la justice - est désormais devenu essentiel. Les citoyens s'attendent aujourd'hui à ce que les systèmes judiciaires soient plus efficaces et transparents. L'intelligence artificielle (IA) émerge comme un outil précieux pour rationaliser les procédures et améliorer l'accès à la justice.

Cependant, nous ne devons jamais oublier le rôle irremplaçable des humains dans cette évolution. Bien que l'IA puisse assister, optimiser et améliorer nos processus, elle ne doit jamais remplacer notre capacité à prendre des décisions éclairées. Il est de notre devoir de préserver cet équilibre, en veillant à ce que les avancées technologiques servent la cause de la justice, plutôt que de la dicter. Alors que nous adoptons ces innovations, nous devons également rester vigilants face à leurs limites et conscients des enjeux éthiques qu'elles soulèvent.

Je profite de cette occasion pour souligner le rôle social fondamental de l'huissier de justice (du commissaire de justice). Nous ne sommes pas simplement des agents d'exécution, mais des membres à part entière du système judiciaire, responsables de maintenir l'équilibre entre les droits et les obligations des citoyens. Si veiller au respect des décisions de justice est un aspect central de notre travail, nous jouons également un rôle crucial en tant que médiateurs et facilitateurs de confiance dans la résolution des conflits.

Par nos actions, nous contribuons à préserver l'harmonie sociale et à garantir que la justice reste accessible à tous, y compris aux membres les plus vulnérables de la société. C'est cet aspect humain de notre profession qui lui confère sa force et sa longévité dans un monde en perpétuelle évolution. Nous devons continuer à promouvoir l'huissier de justice (le commissaire de justice) comme un professionnel de confiance, capable de gérer des situations complexes avec équité et intégrité.

Que ce soit dans les domaines de la technologie, de l'organisation ou de la société, l'huissier de justice (le commissaire de justice) reste au cœur de la justice moderne. En travaillant ensemble et en respectant nos valeurs fondamentales, nous pouvons assurer un avenir prometteur pour notre profession.

newsid:491189

Voies d'exécution

[Actes de colloques] L'Intelligence artificielle dans le domaine de la Justice : un enjeu de société

Lecture: 6 min

N1190B3H

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491190
Copier

par Patrick Gielen (BE), Secrétaire de l’Union Internationale des Huissiers de Justice (UIHJ), Membre du comité scientifique de la revue Lexbase Contentieux et Recouvrement

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

L’intelligence artificielle (IA) s'est imposée comme l'une des avancées technologiques les plus marquantes de notre époque, révolutionnant de nombreux secteurs, y compris celui de la justice. Sa capacité à traiter d'énormes volumes de données et à automatiser des tâches complexes promet d'améliorer l'efficacité des systèmes judiciaires, d'accélérer les procédures et de faciliter l'accès à la justice pour tous.

Toutefois, l'essor de l'IA dans le domaine juridique, en particulier en matière civile et commerciale, soulève des interrogations majeures quant au respect des droits humains et à la protection des justiciables. Plus qu'une simple évolution technologique, l'IA représente un véritable enjeu de société. Il s'agit d'une transformation qui exige l'engagement de tous les acteurs du droit pour garantir que les innovations technologiques servent à renforcer les principes fondamentaux de notre démocratie, tout en construisant un système judiciaire moderne, efficace et respectueux des droits de chacun.

Cette révolution technologique s'appuie sur une quantité exponentielle de données accumulées au cours des vingt dernières années, rendue possible par l'usage généralisé des outils numériques dans tous les secteurs économiques et sociaux. L'IA, aujourd'hui, se montre plus performante que les humains dans de nombreux domaines. Ces nouveaux outils, aussi fonctionnels que l'étaient autrefois la machine à vapeur et l'industrialisation, apportent non seulement des gains de productivité, mais aussi un confort et une attractivité qui accélèrent leur adoption.

Cependant, il est important de prendre en considération les mises en garde de penseurs tels qu'Alexis de Tocqueville [1]. Celui-ci imaginait un pouvoir administratif « immense et tutélaire » dont les « petites règles compliquées, minutieuses et uniformes » viseraient à « fixer irrévocablement dans l’enfance » des citoyens incapables d'exercer leur libre arbitre. Un tel pouvoir, disait-il, « travaille volontiers au bonheur des hommes, veut en être l’unique agent et le seul arbitre, pourvoit à leur sécurité, prévoit et assure leurs besoins, facilite leurs plaisirs, conduit leurs principales affaires, dirige leur industrie, règle leurs successions, divise leurs héritages », mais risque aussi de « leur ôter entièrement le trouble de penser et la peine de vivre ». Or ce pouvoir tutélaire « absolu, détaillé, régulier, prévoyant et doux » qui se combine si bien « avec quelques-unes des formes extérieures de la liberté » est sans doute en train de se réaliser sous nos yeux sous la forme d’une offre numérique ludique, multiforme, addictive et envahissante, qui instaure petit à petit et sans qu’on y prenne garde cette nouvelle sorte de « servitude réglée, douce et paisible » que redoutait Tocqueville.

Face à ces enjeux, il est de notre responsabilité collective de réfléchir aux implications profondes de l'IA dans le secteur juridique. Notre objectif est de trouver un équilibre entre les promesses offertes par cette technologie et la préservation des libertés fondamentales. Le véritable danger ne réside pas dans l'IA elle-même, mais dans la manière dont elle est contrôlée et utilisée. C'est pourquoi il est crucial que des institutions comme le Conseil de l'Europe et la Commission européenne pour l'efficacité de la justice (CEPEJ) continuent à jouer un rôle central. Leur mission est de veiller à ce que l'utilisation de l'IA respecte les droits humains non seulement dans l'exécution des décisions de justice, mais aussi dans le maintien de l'État de droit. En garantissant ces principes, nous préserverons la liberté de penser et d'agir des justiciables et nous construirons ensemble un système judiciaire qui tire le meilleur parti des avancées technologiques tout en protégeant les droits de chacun.

La Commission européenne pour l’efficacité de la justice (CEPEJ) a mis en lumière les opportunités offertes par l’IA pour moderniser les systèmes judiciaires, tout en reconnaissant les risques inhérents à son déploiement. Dans sa vision, l’IA doit être utilisée en conformité avec les principes de respect des droits de l’homme, de démocratie et de l’État de droit. Le Conseil de l’Europe, dans sa Convention-cadre sur l'intelligence artificielle, insiste sur la nécessité de définir des règles et des principes clairs pour régir le cycle de vie des systèmes d’IA afin d’exploiter ses avantages sans compromettre les valeurs fondamentales de nos sociétés.

En matière d’exécution des décisions de justice civile et commerciale, l’IA présente des potentialités considérables. Elle peut, par exemple, automatiser l’analyse de documents, faciliter les recherches juridiques complexes, prédire les issues des litiges, et même assister les professionnels dans la gestion des dossiers. Selon une étude menée par des chercheurs de l’Université de Berkeley, les outils d’IA générative pourraient permettre aux avocats et aux professionnels du droit d’accroître leur productivité de manière significative. Cette étude démontre notamment que 90 % des participants ont signalé une augmentation de leur efficacité grâce à ces outils, et 75 % envisagent de continuer à les utiliser dans leur pratique quotidienne [2].

Cependant, ces progrès s’accompagnent de défis majeurs. L’un de ces défis concerne la garantie des droits des justiciables. Les systèmes d’IA, bien qu’efficaces, ne sont pas infaillibles. Leurs erreurs, ou "hallucinations", peuvent entraîner des conséquences graves, en particulier lorsqu'ils sont utilisés pour automatiser des décisions ou des recommandations ayant un impact direct sur les droits des individus. La transparence des algorithmes, l'obligation d’une vérification systématique des résultats générés par l'IA, et la protection des données personnelles sont autant de préoccupations soulevées par l’utilisation de l’IA dans le domaine juridique.

Les chercheurs et les professionnels du droit insistent sur la nécessité de maintenir un contrôle humain sur les outils d’IA, en particulier dans les tâches à haut risque, telles que l’analyse des contrats ou les décisions judiciaires.

Le domaine de l'exécution des décisions de justice en matière civile et commerciale est particulièrement concerné par ces enjeux. L'IA pourrait, par exemple, aider les huissiers de justice (commissaires de justice) à automatiser certaines tâches, comme la recherche de biens ou la gestion des documents de procédure. Mais cette automatisation, si elle est mal encadrée, peut comporter des risques pour les droits des débiteurs et des créanciers. Ainsi, il est essentiel de s’interroger sur la manière dont l’IA peut être intégrée dans les procédures d’exécution tout en respectant les garanties fondamentales des justiciables.

Face à ces défis, le monde judiciaire, et particulièrement les huissiers de justice (commissaires de justice) en tant que tiers de confiance, ont un rôle fondamental à jouer. Ils doivent se positionner comme les garants d’un État de droit afin de préserver les libertés individuelles de chaque justiciable. Le véritable danger ne réside pas dans l’IA elle-même, mais dans ceux qui la contrôlent. Il est donc essentiel que des institutions telles que le Conseil de l’Europe et la CEPEJ continuent à jouer un rôle central pour assurer le respect des droits humains dans l’utilisation de l’IA, non seulement dans l’exécution des décisions de justice, mais aussi dans la préservation des fondements de l’État de droit. Ainsi, les citoyens pourront conserver leur liberté de penser et d’agir, même dans un environnement de plus en plus automatisé.


[1] Voy. A. De Tocqueville, « De la démocratie en Amérique », tome II, 1840. Tocqueville décrit une forme de despotisme moderne où un pouvoir centralisé, bienveillant en apparence, administre les affaires des citoyens en les entourant d'un réseau de "petites règles compliquées, minutieuses et uniformes." Il compare ce pouvoir à une force qui, au lieu de tyranniser, tend à rendre les individus dociles et dépendants, réduisant progressivement leur capacité à penser et agir librement. Il évoque une "servitude réglée, douce et paisible" qui pourrait se développer, même sous la souveraineté populaire, en combinant centralisation administrative et souveraineté du peuple. Ce passage illustre les craintes de Tocqueville quant à l'impact de l'égalité sur la liberté, et les dangers de l'asservissement progressif par des mesures administratives.

[2]  Voy. Berkeley Law Executive Education, Generative AI for the Legal Profession, 2023 [en ligne].

newsid:491190

Voies d'exécution

[Actes de colloques] Garantir les droits humains dans un environnement juridique automatisé

Lecture: 8 min

N1191B3I

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491191
Copier

par Marc Schmitz (BE), Président de l’Union Internationale des Huissiers de Justice (UIHJ)

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

L'adoption croissante de l'intelligence artificielle (IA) et des systèmes automatisés dans les processus juridiques pose de nombreux défis, mais offre également des opportunités. La question du respect des droits humains dans un environnement juridique automatisé est centrale et soulève des problématiques éthiques, juridiques et techniques. Garantir ces droits dans un tel contexte implique une réflexion sur plusieurs axes clés.

  • Transparence et explicabilité des systèmes automatisés

L'une des principales préoccupations concernant l'IA dans les processus juridiques est le manque de transparence et d'explicabilité des algorithmes utilisés. 

Les décisions automatisées doivent être compréhensibles par les individus concernés, en particulier lorsqu'elles influencent des droits fondamentaux (L’article 6 de la Convention européenne des droits de l’Homme et des liberté fondamentales N° Lexbase : L7558AIR le droit à un procès équitable, mais aussi l’article 8 N° Lexbase : L4798AQR: le droit à la vie privée et familiale, etc.). Les systèmes d'IA, notamment ceux reposant sur des modèles d'apprentissage profond, sont souvent perçus comme des « boîtes noires » en raison de la complexité des processus décisionnels internes.

Pour garantir les droits humains, il est essentiel, selon notre humble avis, de pouvoir documenter les décisions prises par les algorithmes pour permettre une vérification humaine.

Mais il faut aussi et surtout rendre les algorithmes explicables afin que les parties concernées et les acteurs juridiques puissent comprendre comment les conclusions prises par l’IA sont tirées.

Les systèmes d'intelligence artificielle sont sensibles aux biais, en particulier ceux provenant des données utilisées pour leur apprentissage. Si un algorithme est entraîné sur des données historiques biaisées ou incomplètes, cela peut entraîner des discriminations. Un exemple marquant de la sensibilité des systèmes d'intelligence artificielle aux biais se trouve dans le domaine de la justice pénale aux États-Unis, avec l'utilisation de l'algorithme « COMPAS » (Correctional Offender Management Profiling for Alternative Sanctions). Cet outil est utilisé pour évaluer le risque de récidive d'un individu, influençant ainsi des décisions comme l'octroi de la liberté conditionnelle ou la détermination de la durée d'une peine.

Une enquête menée en 2016 a révélé que l'algorithme « COMPAS » affichait des biais raciaux significatifs. Selon l'enquête, il avait tendance à attribuer des scores de risque plus élevés aux afro-américains, même lorsqu'ils ne récidivaient pas, tandis qu'il sous-estimait le risque pour les personnes blanches, qui étaient parfois plus susceptibles de récidiver. Ce biais provient du fait que l'algorithme est entraîné sur des données historiques de condamnations, qui reflètent des disparités raciales dans le système de justice pénale [1].

Ainsi, l'algorithme, en reproduisant des préjugés historiques et en amplifiant les disparités existantes, a conduit à des décisions discriminatoires affectant la liberté des individus, illustrant bien comment un algorithme biaisé peut perpétuer des discriminations lorsqu'il est formé sur des données biaisées ou incomplètes.

Cette problématique est d'autant plus préoccupante dans des domaines tels que la justice pénale où des décisions inéquitables peuvent avoir un impact sur la liberté d'une personne.

Mais comment limiter ces risques ?

Auditer régulièrement les systèmes d'IA pour identifier et corriger les biais devient certes indispensable, mais il va de soi que l’établissement de protocoles anti-discrimination stricts lors de la conception et de la mise en œuvre des technologies automatisées est un élément incontournable dans la limitations de ces risques.

  • Responsabilité

Dans un environnement automatisé, la question de la responsabilité devient évidemment complexe et dépend de plusieurs facteurs, notamment le contexte d'utilisation, les lois en vigueur, et la chaîne de conception et d'utilisation de l'IA.

Qui est responsable en cas d'erreur prise par une IA ? Le concepteur de l'algorithme, l'entité qui l'a mis en œuvre, ou l'autorité qui l'utilise ?

Les entreprises ou individus qui conçoivent et développent l'algorithme peuvent être tenus pour responsables si une erreur résulte d'un défaut dans la conception de l'IA. Cela inclut des erreurs dans la programmation, un manque de rigueur dans le choix des données d'entraînement, ou l'absence de mesures visant à atténuer les biais ou discriminations.

L'entité qui commercialise ou fournit le système d'IA peut aussi être responsable, surtout si elle ne communique pas correctement les limites du système ou si elle ne fournit pas une assistance technique adéquate pour assurer une utilisation correcte. Dans certains cas, des clauses contractuelles peuvent stipuler des limites à cette responsabilité, mais elles ne suffisent certes pas à la supprimer complètement.

L'utilisateur final, en l’occurrence l’huissier de justice, peut être responsable des erreurs de l'IA, surtout si elle est mal utilisée ou employée dans un contexte pour lequel elle n'était pas conçue. 

Il est évident que tant que les régulations en matière l’IA ne sont pas uniformes à l'échelle mondiale, il est probable que la question de la responsabilité continuera à évoluer au fur et à mesure que les systèmes d'IA se développent et que les législations s'adaptent à ces nouvelles technologies.

Il va de soi que les citoyens doivent conserver des moyens de recours efficaces en cas de décisions automatisées incorrectes ou discriminatoires. 

Cela implique un cadre juridique clair qui établit la responsabilité en cas de dommage causé par une IA et – évidemment - des mécanismes de recours accessibles permettant aux individus de contester une décision prise par une machine.

  • Surveillance humaine et contrôle judiciaire

Les systèmes automatisés dans le droit ne doivent pas opérer sans une supervision humaine adéquate. Le contrôle humain est essentiel pour garantir que les décisions prises respectent non seulement la loi, mais aussi les principes éthiques et les droits humains.

Ceci nécessite une formation continue des professionnels du droit sur les nouvelles technologies et leurs implications est essentielle pour maintenir un contrôle judiciaire pertinent.

Garantir les droits humains dans un environnement juridique automatisé exige une approche proactive et multidisciplinaire. Cela nécessite une régulation claire, une surveillance humaine constante, une conception éthique des technologies, et des mécanismes robustes de protection contre les abus et discriminations. Le défi est non seulement de s'assurer que l'automatisation ne porte pas atteinte aux droits fondamentaux, mais plutôt qu'elle renforce l'accès à la justice et la protection des droits.

Les systèmes automatisés reposent souvent sur la collecte et l'analyse de vastes quantités de données personnelles. Cela peut créer des tensions avec les droits à la vie privée. Il est nécessaire de protéger ces informations contre toute utilisation abusive ou violation.

Dans ce contexte, le respect des réglementations sur la protection des données, telles que le RGPD en Europe , mais aussi des mécanismes de sécurité solides pour protéger les bases de données utilisées par les systèmes juridiques automatisés deviennent indispensables.

L'automatisation pourrait, en théorie, améliorer l'accès à la justice en rendant les services juridiques plus rapides et moins coûteux. Toutefois, il existe aussi un risque d'accentuation des inégalités si les systèmes automatisés sont inaccessibles à certaines populations, par exemple en raison d'un manque de compétences numériques ou de moyens financiers.

Conclusion

En conclusion, nous estimons qu’il est crucial que les systèmes automatisés soient conçus dès le départ avec une approche centrée sur les droits humains. Cela signifie que les droits fondamentaux doivent être considérés à toutes les étapes, de la conception à l’implémentation, en passant par l’utilisation des technologies.

Avant de déployer un système automatisé dans un cadre juridique, une évaluation rigoureuse de son impact potentiel sur les droits humains doit être réalisée.

Mais est-il concevable que les groupes de défense des droits humains, les juristes et la société civile soient impliqués dans la conception des systèmes pour garantir que les besoins et les préoccupations des citoyens soit pris en compte ?

La garantie des droits humains dans un environnement juridique automatisé repose sur un équilibre délicat entre l'efficacité technologique et la protection des principes fondamentaux. L'adoption de pratiques telles que la transparence des algorithmes, l'inclusivité des données, la supervision humaine et la redevabilité est cruciale pour construire des systèmes juridiques automatisés justes et éthiques.

À travers ses actions, l’huissier de justice joue un rôle essentiel dans la préservation de l'harmonie sociale et dans l'assurance que la justice demeure accessible à tous, y compris aux membres les plus vulnérables de notre société. Cet aspect humain de notre profession est ce qui lui confère sa force et sa pérennité dans un monde en constante évolution.

Dans un environnement en mutation rapide, marqué par les avancées technologiques et les défis organisationnels, l'huissier de justice demeure au cœur du système judiciaire moderne. 

En travaillant ensemble, en favorisant la collaboration interprofessionnelle et en soutenant l'innovation dans nos pratiques, nous pouvons non seulement renforcer notre profession, mais aussi garantir les droits humains dans un environnement juridique automatisé. 

C'est ainsi que nous serons en mesure de construire une justice qui soit non seulement efficace, mais également juste et inclusive, respectant ainsi les besoins de tous, sans exception.

 

[1] ProPublica, J. Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner, Machine Bias, publié le 23 mai 2016.

newsid:491191

Voies d'exécution

[Actes de colloques] Applications pratiques de l’IA dans le procès et l’exécution

Lecture: 24 min

N1239B3B

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491239
Copier

par Guillaume Payan, Professeur à l’Université de Toulon (France), Membre du Conseil scientifique de l’UIHJ, Directeur adjoint du CDPC Jean-Claude Escarras (UMR CNRS 7318 DICE)

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

Les applications spécifiques de l’IA dans l’exécution [1]

1. L’emprise des technologies modernes de la communication et la dématérialisation corrélative des procédures civiles d’exécution ne cessent de gagner du terrain dans les États européens. Les progrès technologiques récents conduisent à envisager un aspect particulier de cette évolution, à savoir le déploiement des outils de l’intelligence artificielle.

2. Intelligence artificielle. Les termes « intelligence artificielle » (IA) sont abondamment utilisés aujourd’hui, à tel point que l’on a le sentiment que toutes les évolutions récentes en relèvent. Pour autant, on rencontre une certaine gêne lorsqu’il s’agit de définir avec précision à quoi on fait référence. La prépondérance de la langue anglaise ne facilite d’ailleurs pas l’exercice, même si des efforts sont faits pour « franciser » les termes employés. Ainsi, méritent notamment d’être salués les travaux de la commission d’enrichissement de la langue française consistant en l’élaboration d’une « liste relative au vocabulaire de l’intelligence artificielle (termes, expressions et définitions adoptés) », récemment publiée au JORF [2].

Quoi qu’il en soit, pour s’en tenir à l’importante Charte éthique européenne de la CEPEJ d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement [3], l’intelligence artificielle est définie comme « un ensemble de sciences, théories et techniques dont le but est de reproduire par une machine des capacités cognitives d’un être humain. Les développements actuels visent à pouvoir confier à une machine des tâches complexes auparavant déléguées à un humain » [4]. Dans cette Charte, sont consacrés cinq principes majeurs permettant de guider les outils d’intelligence artificielle dans les systèmes judiciaires européens, en l’occurrence :

« 1. Principe de respect des droits fondamentaux : assurer une conception et une mise en œuvre des outils et des services d’intelligence artificielle qui soient compatibles avec les droits fondamentaux ; 

2. Principe de non-discrimination: prévenir spécifiquement la création ou le renforcement de discriminations entre individus ou groupes d’individus ; 

3. Principe de qualité et sécurité: en ce qui concerne le traitement des décisions juridictionnelles et des données judiciaires, utiliser des sources certifiées et des données intangibles avec des modèles conçus d’une manière multidisciplinaire, dans un environnement technologique sécurisé ; 

4. Principe de transparence, de neutralité et d’intégrité intellectuelle : rendre accessibles et compréhensibles les méthodologies de traitement des données, autoriser les audits externes ; 

5. Principe de maîtrise par l’utilisateur : bannir une approche prescriptive et permettre à l’usager d’être un acteur éclairé et maître de ses choix ».

Au titre des illustrations concrètes, on peut lire dans ce même document qu’« une classification peut être opérée en fonction du service offert. L’intervention de l’IA peut être très variable en fonction des applications. Les grandes familles pourraient être organisées comme suit, à titre illustratif : Moteur de recherche de jurisprudence avancé, Résolution de litiges en ligne, Aide à la rédaction d’actes, Analyse (prédictif, barèmes), Catégorisation des contrats selon différents critères et détection de clauses contractuelles divergentes ou incompatibles, "Chatbots" de renseignement du justiciable ou de support de celui-ci dans sa démarche litigieuse » [5].

À ces illustrations s’ajoute désormais ce que l’on dénomme l’intelligence artificielle « générative » qui renvoie à « un système logiciel qui communique en langage naturel, capable de répondre à des questions relativement complexes et de créer un contenu (texte, image ou son) à la suite d’une question ou d’instructions formulées […]. Parmi ces outils, figurent OpenAI ChatGPT, Copilot, Gemini et Bard » [6]. Autrement dit, cette IA générative correspond à une « branche de l’intelligence artificielle mettant en œuvre des modèles génératifs, qui vise à produire des contenus textuels, graphiques ou audiovisuels » [7]. Gravitent également dans cette nouvelle galaxie d’outils, les techniques mettant en pratique la « blockchain » (ou « chaines de bloc »), au sens de techniques permettant de « générer, stocker et faire circuler les actifs sans aucun intermédiaire, via une base de données décentralisée et sécurisée par cryptographie » [8].

3. Exécution. Telle que visée dans la Recommandation Rec (2003) 17 du Comité des Ministres aux États membres du 9 septembre 2003, l’exécution peut être définie comme « le fait de donner effet à des décisions de justice, ainsi qu’à d’autres titres exécutoires, qu’ils soient judiciaires ou non judiciaires, conformément à la loi qui oblige le défendeur à faire, à s’abstenir de faire ou à payer ce qui a été décidé ». 

Ce domaine de l’exécution forcée n’est pas épargné par les évolutions technologiques, en dépit de ses particularités intrinsèques et, singulièrement, de l’omniprésence de la contrainte. Sous réserve des précisions qui seront apportées par la suite, il apparaît même que l’on puisse voir dans l’exécution forcée des titres exécutoires un terrain d’élection pour le déploiement des outils de l’IA. Envisagés dans le respect des standards européens de l’exécution – tels que notamment consacrés dans la Recommandation Rec (2003) 17 précitée et précisés dans les Lignes directrices de la CEPEJ sur l’exécution du 17 décembre 2009 [9], puis dans le Guide des bonnes pratiques en matière d’exécution des décisions de justice du 11 décembre 2015 [10] – venant protéger les droits et intérêts légitimes des débiteurs, ces outils de l’IA peuvent être mis à profit pour accroître l’efficacité des procédures engagées au service de la réalisation effective des droits des créanciers. En somme, si l’IA opère un renouvellement du contexte dans lequel doit désormais s’envisager le processus d’exécution, on constate une permanence dans les objectifs poursuivis. Il s’agira toujours pour l’agent d’exécution de prêter son concours afin que le créancier obtienne son dû et pour que les droits des débiteurs soient dument pris en compte [11].

Dans cette perspective, il y a lieu d’envisager l’application de l’intelligence artificielle non seulement à l’égard des procédures d’exécution (I), mais également au bénéfice des acteurs de l’exécution (II).

I. Application de l’Intelligence artificielle à l’égard des procédures d’exécution

4. Dans le but de préserver l’État de droit, il importe que les procédures civiles d’exécution soient efficaces et équitables [12]. Si l’IA peut permettre d’en accroître l’efficacité (A), elle doit trouver une limite dans la nécessaire sauvegarde du caractère équitable desdites procédures (B).

A. Potentialités : facteur d’efficacité des procédures d’exécution

5. L’apport de l’IA ne se résume pas dans la simplification de la gestion administrative d’un dossier ouvert dans l’étude d’un agent d’exécution. Les outils de l’IA peuvent être exploités à l’occasion de la réalisation de l’exécution et, partant, lors de la mise en œuvre des procédures civiles d’exécution (2). Ils peuvent l’être également, en amont, lors de la recherche d’informations permettant de localiser le débiteur et les éléments de son patrimoine (1).

1) Transparence patrimoniale

6. On le sait, l’efficacité de l’exécution repose grandement sur l’obtention d’informations complètes, précises et à jour sur les éléments actifs et les éléments passifs [13] du patrimoine du débiteur. Les outils de l’intelligence artificielle peuvent-ils faciliter la recherche de ces informations patrimoniales ? La réponse à cette épineuse question semble en partie liée aux modes d’accès aux informations patrimoniales. Au risque de grossir le trait, on peut distinguer l’investigation patrimoniale et la déclaration patrimoniale.

7. Investigation patrimoniale. Le premier dispositif de transparence patrimoniale consiste en la consultation de registres, par un professionnel chargé de procéder à l’exécution (à savoir, l’agent d’exécution). Le concernant, on perçoit assez aisément l’apport de l’intelligence artificielle, en ce que ces nouvelles technologies permettent de traiter simultanément un grand volume de données ainsi que fournir les conditions idoines pour une interconnexion facilitée des registres dématérialisés contenant des informations patrimoniales (ex. fichiers des véhicules automobiles, fichiers de comptes bancaires, fichiers immobiliers…), tenus dans un même pays ou dans des pays différents. Cela suppose bien entendu que ces fichiers soient à jour et correctement renseignés. On pense également aux progrès enregistrés sur le terrain de la géolocalisation.

8. Déclaration patrimoniale. Le second dispositif de transparence patrimoniale repose sur le concours du débiteur et, plus généralement, de la personne visée par la procédure civile d’exécution envisagée. On perçoit ici des limites de l’intelligence artificielle.

L’efficacité du dispositif repose alors sur les sanctions encourues lorsque la personne qui détient les informations n’obtempère pas. La pertinence de la solution de l’astreinte – connue de la majorité des États européens [14] – est variable en fonction des situations rencontrées. Par exemple, cette pression financière est inefficace si le débiteur récalcitrant a concentré les éléments actifs de son patrimoine dans des crypto-actifs ou, plus généralement, que son patrimoine est essentiellement composé de biens numériques qui ne sont accessibles qu’avec son concours.

Dans une telle situation, le prononcé d’une sanction pénale peut présenter une certaine efficacité. Or, la pénalisation de l’exécution des décisions de justice prononcées en matière civile est une question qui divise les États européens [15]. Privilégier les sanctions pénales pour accompagner le déploiement des outils de l’IA dans le domaine de l’exécution civile serait quelque peu déconcertant. À la grande nouveauté apportée par l’IA, seraient ainsi associées des sanctions semblant appartenir à un autre temps [16].

2) Réalisation de l’exécution

9. Après avoir localisé les éléments actifs du patrimoine du débiteur, il appartient au créancier de faire mettre en œuvre les procédures civiles d’exécution prévues par la législation nationale applicable. Là encore, l’IA ouvre le champ des possibles en permettant une réforme du déroulement des procédures existantes et en autorisant la création de procédures adaptées aux « nouveaux » biens composant le patrimoine (numérique) des débiteurs.

10. Modifier les procédures existantes. On prête traditionnellement, au phénomène de dématérialisation, l’avantage de contribuer à une mise en œuvre accélérée des procédures visées. En ce sens, les « nouvelles technologies » peuvent permettre d’éviter certains déplacements des agents d’exécution et, par extension, augmenter leur productivité et réduire les coûts. De plus, elles sont de nature à accroître la célérité dans la communication avec les juridictions susceptibles d’être saisies en cas d’incidents contentieux pouvant survenir à l’occasion de l’exécution d’une décision de justice.

On retrouve a fortiori de tels avantages lorsque ces nouvelles technologies exploitent les ressources de l’intelligence artificielle. Les outils de l’IA peuvent modifier la façon de réaliser une procédure d’exécution sur des biens qui composent traditionnellement les patrimoines : véhicules, immeubles ou encore comptes bancaires. Sans changer la nature de la contrainte – juridique ou matérielle – inhérente à la procédure d’exécution mise en œuvre, les outils de l’intelligence artificielle peuvent en modifier les modalités. Par exemple, il serait techniquement possible qu’un logiciel organise, à distance, la fermeture automatique des portières et bloque le démarrage d’un véhicule connecté pour l’achat duquel le débiteur aurait contracté un prêt dont les échéances ne seraient pas respectées. On parle à ce sujet de « Kill Switch » (ou « coupe-circuit ») d’un réseau privé virtuel (VPN) permettant de déconnecter automatiquement un appareil électronique. De même, l’évolution technologique autorise l’élaboration d’un programme informatique permettant à un ordinateur d’identifier les mouvements sur les comptes bancaires d’un débiteur et de générer automatiquement – au moment le plus opportun – un acte de saisie. Par ailleurs, afin de pratiquer une saisie de biens meubles ou immeubles, on peut également imaginer qu’un programme parvienne à décrire avec précision – le cas échéant, en suggérant une valeur approximative – les biens figurant sur des photos prises par un agent d’exécution.

11. Pallier les carences des procédures existantes. L’efficacité de l’exécution suppose que les États se dotent de procédures d’exécution adaptées à la diversité de la composition et à la dématérialisation [17] croissante des patrimoines. Les études de la CEPEJ ayant trait à l’exécution révèlent que les arsenaux législatifs des États membres du Conseil de l’Europe se diversifient [18]. Cependant, il ressort de l’examen des législations nationales que font aujourd’hui défaut des procédures d’exécution applicables spécifiquement aux « nouveaux types de biens » ou « patrimoine numérique », tels que les objets connectés [19] ou encore les crypto-actifs [20] ou actifs numériques [21], Tokens immobiliers, Wallet… Biens qui, pour certains, sont particulièrement volatiles et dont la valeur est sujette à de possibles variations brutales. Or, il n’est pas assuré que les procédures d’exécution en vigueur à ce jour soient adaptées. Les outils de l’IA peuvent apporter une aide précieuse en ce domaine. Pour le dire autrement, si l’évolution des technologies conduit ou devrait conduire les législateurs nationaux à ajuster les règles applicables et impose aux praticiens du droit de s’adapter, il apparait tout aussi vrai que ces nouvelles technologies offrent ou devraient offrir les outils techniques pour opérer cette adaptation. À cet égard, on constate avec grand intérêt que les professionnels du droit sont pro-actifs et anticipent les évolutions législatives en suggérant l’adoption de règles pertinentes. Ainsi en est-il de l’Union internationale des huissiers de justice avec l’élaboration du Code mondial de l’exécution [22], dont la nouvelle mouture refondue et enrichie – rédigée sous l’impulsion du Président Marc Schmitz – contient notamment des principes régissant la digitalisation dans le domaine de l’exécution.

B. Pérennité : caractère équitable des procédures d’exécution

12. Les droits et intérêts légitimes des débiteurs doivent impérativement être préservés dans le contexte d’un déploiement des outils de l’intelligence artificielle. De ce point de vue, si ces technologies modernes permettent de franchir certains obstacles « de fait » à l’exécution – tels que ceux liés à l’opacité des patrimoines ou à la volatilité des éléments qui les composent [23] –, elles ne doivent pas passer outre la nécessaire prise en compte de droits fondamentaux des débiteurs et de leurs proches [24], tels que le droit à la dignité (1) ou, dans une certaine mesure, le droit à la vie privée et vie familiale (2) ; auxquels viennent s’ajouter les droits fondamentaux procéduraux, tels que les exigences du droit à un procès équitable. 

1) Préserver des conditions de vie décentes au débiteur et à ses proches

13. Le droit à la dignité du débiteur se traduit notamment par la prévision d’une liste de biens insaisissables [25]. L’emploi des outils de l’IA ne doit évidemment pas conduire à la remise en cause de ces règles protectrices.

Notons que la réduction des coûts de l’exécution engendrée par l’usage des outils de l’IA – du fait notamment de la limitation des frais de déplacement de l’agent d’exécution [26] – peut quant à elle bénéficier aux débiteurs, ces derniers devant in fine supporter lesdits coûts. À l’inverse, il faut être attentif à l’éventuelle répercussion des coûts, sur les parties, des investissements réalisés par les agents d’exécution pour se doter des technologies les plus performantes.

2) Respecter la vie privée du débiteur et de ses proches

14. Dans une certaine limite, le droit à la vie privée et à la vie familiale du débiteur peut être invoqué pour limiter ou encadrer l’exercice du droit à l’exécution des titres exécutoires [27]. La détermination des jours et heures pour pratiquer une mesure d’exécution constitue un exemple topique. À cet égard, si les outils de l’intelligence artificielle peuvent être opérationnels à n’importe quelle heure – du jour ou de la nuit – et à l’importe quel jour de la semaine, cela ne signifie pas pour autant que l’on doive sacrifier les règles protectrices jusqu’ici applicables.

Le droit québécois offre une illustration intéressante, sur le terrain voisin de la notification des actes de procédure. Aux termes du second alinéa de l’article 111 du Code de procédure civile local, « la notification faite par un moyen technologique après 17h00, le samedi ou un jour férié est réputée faite à 8h00 le jour ouvrable qui suit ». Une telle solution est tout à fait déclinable dans le domaine de l’exécution.

Par ailleurs, le nécessaire respect du droit au respect de la vie privée protège les individus contre les dangers d’une divulgation excessive des données à caractère personnel. Y compris dans le cadre d’une procédure d’exécution, la transmission d’un acte par voie électronique peut s’exposer à un risque de piratage et d’interception indue. Il faut également garder à l’esprit les « données fantômes » qui sont glanées à l’occasion de la mise en œuvre d’une procédure d’exécution et qui peuvent être stockées dans les smartphones et y figurer encore bien après l’achèvement de la procédure diligentée.

II. Application de l’Intelligence artificielle au bénéfice des acteurs de l’exécution

15. Aux titres des « acteurs de l’exécution », sont concernés les « organes de la procédure » [28] (A) ainsi que les parties et les tiers (B).

A. Organes de la procédure

16. L’attention porte ici notamment sur le recours à des « systèmes algorithmiques » dans le domaine de l’exécution forcée. Cette notion renvoie à « des applications qui, au moyen souvent de techniques d’optimisation mathématique, effectuent une ou plusieurs tâches comme la collecte, le regroupement, le nettoyage, le tri, la classification et la déduction de données, ainsi que la sélection, la hiérarchisation, la formulation de recommandations et la prise de décision » [29]. Leur usage se conçoit au stade de la prise de décision – d’un agent d’exécution à l’occasion de la mise en œuvre d’une procédure d’exécution ou d’un juge lors du contrôle de la régularité d’une procédure – (1), comme au stade du recours formé à l’encontre de la décision prise (2).

1) Au stade de la prise de décision

17. Les dangers de la déshumanisation sont présents à l’égard des instruments de « justice prédictive ». Les concernant, une gradation est possible si l’on opère une distinction entre, d’un côté, les technologies qui aident le professionnel du droit lors de la prise de décision (en cela comprise l’aide à la recherche juridique, à l’analyse de documents et à la rédaction d’actes [30]) et, de l’autre, les technologies qui se substituent à ce professionnel. S’agissant de ces dernières, plusieurs textes nationaux [31] ou internationaux [32] ont consacré le droit des justiciables à être informés du traitement de leur affaire par un algorithme et ont écarté les situations où l’adoption de cette décision repose exclusivement sur un traitement automatisé de données à caractère personnel. A minima, lorsqu’un professionnel du droit fait par exemple usage d’un « système algorithmique » pour l’aider à arrêter son choix, une information claire des personnes impliquées doit être assurée [33]. Ces précautions prévues au bénéfice des parties peuvent tout à fait s’envisager dans le contexte de l’exécution forcée d’un titre exécutoire. 

D’autres précautions doivent bénéficier aux organes de la procédure. L’usage des outils de l’IA ne doit pas se manifester par une pression démesurée sur la prise de décision et sur le libre arbitre de l’intervenant humain. De ce point de vue, la protection contre la déshumanisation de la justice doit s’accompagner notamment de la protection de l’exigence d’autonomie décisionnelle des auxiliaires de justice (dont l’agent d’exécution) et de l’exigence d’indépendance des juges (dont le juge compétent en matière d’exécution des titres exécutoires). Par extension, tout mécanisme de profilage des juges est à proscrire ; profilage qui est d’autant plus facile à organiser dès lors que la matière de l’exécution forcée, du fait de sa grande technicité, est un domaine où la spécialisation des juges est encouragée [34].

18. Dans un ordre d’idée voisin, on n’insistera jamais assez sur l’importance, pour les professionnels concernés, de se former [35] au bon usage des outils de l’IA. L’utilisation de l’IA doit s’opérer dans le respect du secret professionnel, du secret des affaires et, plus généralement, de l’éthique et des règles déontologiques [36]. On pense par exemple à la démarche conduisant un praticien à énoncer un problème juridique, afin que l’IA le résolve. Non seulement la question devra être posée de façon pertinente, mais elle devra également l’être après une anonymisation des informations communiquées. Par ailleurs, cette formation doit être axée sur l’identification de la valeur ajoutée – notamment en termes de stratégie procédurale – que le professionnel « humain » apportera dans l’exploitation et le contrôle des résultats générés par l’IA, étant considéré que sa responsabilité peut être engagée s’il s’approprie des réponses qui s’analyseraient en des « hallucinations » ou erreurs.

19. L’acculturation des professionnels du droit à l’intelligence artificielle constitue un enjeu majeur pour les prochaines années [37]. Cette difficulté n’étant pas propre au continent européen, on remarquera avec intérêt les premières décisions prononcées aux États-Unis, dans lesquelles la responsabilité de praticiens du droit (avocats) est engagée en raison de l’absence de vérification et de l’usage de données générées par l’IA qui se sont avérées inexactes [38]. Dans la même veine, on peut signaler une décision de la Cour constitutionnelle de Colombie datant du 2 août 2024 dans laquelle les Hauts magistrats encadrent l’usage de l’IA par les juges, en mettant en avant la nécessaire garantie des droits fondamentaux ainsi que l’importance de l’intervention humaine dans les décisions de justice [39].

2) Au stade du recours contre la décision prise

20. Si des « services "en ligne" d’exécution » devaient avoir pour seul fondement un traitement algorithmique ou automatisé de données à caractère personnel, il faudrait s’assurer que les parties disposent du droit de soumettre, au réexamen d’une personne physique, la procédure d’exécution qui aurait été menée par des moyens automatisés ou qui aurait donné lieu au seul emploi d’un algorithme [40]. En d’autres termes, la machine ne doit pas remplacer l’humain. Le contrôle par l’agent d’exécution, personne humaine et professionnel de l’exécution, devrait être assuré.

B. Parties et tiers à la procédure

21. Les parties (1) et les tiers (2) aux procédures d’exécution mises en œuvre ne doivent pas être exclus de la réflexion portant sur l’emprise de l’IA sur l’exécution des titres exécutoires.

1) Les parties : bonne compréhension du processus d’exécution

22. Les documents adoptés par le Conseil de l’Europe en matière d’exécution mettent l’accent sur l’exigence d’une bonne compréhension, par les parties, du droit applicable et de la procédure dans laquelle elles sont impliquées [41]. Là encore, l’IA peut être opportunément exploitée.

23. Information sur la législation applicable. Une information complète sur la législation applicable est le nécessaire préalable à la compréhension et à la maîtrise du processus d’exécution [42]. Il importe que cette information soit facilement accessible. Dans cette optique, les fonctionnalités des outils de l’intelligence artificielle sont particulièrement étendues. Les logiciels disponibles réduisent ou anéantissent les inconvénients liés à l’éparpillement des textes applicables (en regroupant les données pertinentes en provenance de sources juridiques différentes) et au plurilinguisme (en prévoyant des traductions instantanées de grande qualité).

24. Informations relatives au déroulement d’une procédure d’exécution donnée. L’information en temps réel des parties sur le déroulement de la procédure dans laquelle elles sont impliquées devient techniquement possible. Ces techniques peuvent tout à fait être exploitées dans le domaine de l’exécution forcée, sous réserve néanmoins de respecter les exigences tenant à l’efficacité de la procédure mise en œuvre, laquelle suppose parfois un certain « effet de surprise » à l’égard du débiteur. Autre réserve : il est également important de se prémunir contre l’« illectronisme », à défaut de quoi l’usage des technologies innovantes pourrait accroître les inégalités entre les justiciables. D’autres canaux d’information des parties doivent donc être maintenus.

2) Les tiers : pleine coopération au processus d’exécution

25. La confection et l’usage des outils de l’Intelligence artificielle ont pour conséquence l’apparition de nouveaux « tiers » qui sont amenés à prendre place – directement ou indirectement – dans le processus d’exécution des titres exécutoires.

26. Les concepteurs de logiciels. Il y a tout d’abord les structures qui créent et exploitent les outils de l’intelligence artificielle. On pense aux « Legaltech ». Plus généralement, sont apparues des structures – privées – concevant les algorithmes et des opérateurs qui élaborent les outils électroniques utilisés dans la sphère juridique, dont la neutralité ne doit pas être considérée comme une donnée nécessairement acquise ; des biais pouvant exister dans la collecte et l’exploitation des données. Une solution pourrait être trouvée dans l’obligation faite à ces opérateurs d’assurer une réelle transparence quant au contenu des logiciels utilisés. Cependant, à supposer que cela soit possible, il conviendrait de veiller à l’intelligibilité des explications fournies.

27. Les détenteurs d’actifs numériques. Il y a ensuite les plateformes d’intermédiation qui facilitent la conservation, l’échange et la revente des crypto-actifs [43]. Or, il n’est point assuré que l’on puisse y voir des « tiers saisis », au sens traditionnel du terme. Il s’ensuit des incertitudes sur les leviers à activer pour s’assurer de leur collaboration aux procédures d’exécution qui pourraient être engagées.


[1] Étude in UIHJ, 3ème Forum mondial sur l’exécution, L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? , organisé à Strasbourg, Palais du Conseil de l’Europe, le 2 décembre 2024.

[2] JORF, 6 septembre 2024, texte 51.

[3] Charte adoptée lors de la 31ème réunion plénière de la CEPEJ les 3-4 décembre 2018. Depuis, voy. égal. CEPEJ, Feuille de route révisée visant à assurer un suivi approprié de la Charte éthique européenne de la CEPEJ sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, 9 décembre 2021, CEPEJ (2021) 16 ; CEPEJ, Outil d’évaluation pour l’opérationnalisation de la Charte éthique européenne sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, 4 décembre 2023, CEPEJ (2023)  ; CEPEJ, L’utilisation de l’intelligence artificielle (IA) générative par les professionnels de la justice dans un contexte professionnel, note d’information, 12 février 2024, CEPEJ-GT-CYBERJUST (2023) final. Par ailleurs, en droit de l’Union européenne, voy. le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle (IA) N° Lexbase : L1054MND, JOUE L, 12 juillet 2024.

[4] Charte, spéc. annexe III, glossaire.

[5] Charte, spéc. annexe I, p. 17.

[6] Commission européenne pour l’efficacité de la justice, L’utilisation de l’intelligence artificielle (IA) générative par les professionnels de la justice dans un contexte professionnel : note d’information, 12 février 2024, CEPEJ-GT-CYBERJUST(2023) 5 final.

[7] Commission d’enrichissement de la langue française, Liste relative au vocabulaire de l’intelligence artificielle (termes, expressions et définitions adoptés)JORF 6 septembre 2024, texte 51.

[8] En ce sens, voy. J. Risser, Crypto-actifs et exécution : saisie impossible ?, Rev. prat. rec. n° 10, novembre 2020, p. 3.

[9] CEPEJ (2009) 11 REV 2. Les lignes directrices.

[10] CEPEJ (2015) 10. Le guide des bonnes pratiques.

[11] Adde, G. Payan, Propos conclusifsin Le commissaire de justice et les défis du numérique, Colloque organisé à Strasbourg, le 27 juin 2024, par l’Institut national de formation des commissaires de justice (INCJ), sous la direction scientifique de M.-P. Mourre-Schreiber (actes à paraître).

[12] Lignes directrices, point 6.

[13] On pense ici à la publicité des procédures civiles d’exécution mises en œuvre contre un débiteur.

[14] Adde, O. Remien, L’astreinte et l’Europein Mélanges en l’honneur de Pascal Ancel, Larcier, 2021, p. 852.

[15] La place du droit pénal dans les législations nationales fait d’ailleurs partie des critères traditionnellement employés en droit comparé de l’exécution pour classer les États. En ce sens, voy., par ex., J. Isnard, Rapport introductifin S. Collins, L. Netten et B. Menut (dir.), L’harmonisation des procédures d’exécution dans un espace de justice sans frontière, EJT, 2007, p. 133 (spéc. p. 141). Voy. égal., du même auteur, Les instruments européens, obstacles ou tremplins pour l’exécution ?in A. Leborgne et E. Putman (dir.), Les obstacles à l’exécution forcée : permanence et évolution, EJT, 2009, p. 147.

[16] En France, en matière civile, la prison pour dette – ou contrainte par corps – a été supprimée en 1867.

[17] La dématérialisation des éléments du patrimoine des débiteurs revêt une grande importance et participe du nécessaire renouvellement du droit de l’exécution, tant il est vrai que ce droit est largement tributaire des règles régissant le droit des biens.

[18] Voy. not. Étude spécifique de la CEPEJ sur les professions juridiques : les agents d’exécution, CEPEJ-GT-EVAL(2023) 5 rev, 8 septembre 2023.

[19] T. Douville, La saisie des objets connectés, in R. Laher (dir.), Le 10e anniversaire du code des procédures civiles d’exécution, LexisNexis, 2023, p. 87.

[20] J. Risser, Crypto-actifs et exécution : saisie impossible ?Rev. prat. rec., novembre 2020, p. 3 ; J. Bruschi et T. Girard-Gaymard, Les voies d’exécution sur crypto-actifs, D. 2024, p. 1686.

[21] J.-J. Ansault, La saisie des actifs numériques », in R. Laher (dir.), Le 10e anniversaire du code des procédures civiles d’exécution, LexisNexis, 2023, p. 97.

[22] UIHJ, Code mondial de l’exécution – Global Code of Enforcement, UIHJ Publishing, mai 2024.

[23] Voy. supra. n° 6 et s.

[24] Adde, G. Payan, Droits de l’Homme et digitalisation de la justiceJournal des tribunaux, Larcier, 26 février 2022, p. 117.

[25] Voy. par ex., Guide des bonnes pratiques, points 50 et s.

[26] Voy supra. n° 10.

[27] Voy. par ex., Guide des bonnes pratiques, points 47 et s.

[28] Il est fait ici référence aux autorités judiciaires ainsi qu’à l’agent d’exécution : Adde, Guide des bonnes pratiques, glossaire « V° Acteurs de l’exécution ».

[29] Recommandation CM/Rec(2020)1 du 8 avril 2020 du Comité des Ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l’Homme.

[30] On parle alors de « génération automatique de texte », à savoir l’« opération par laquelle un grand modèle de langage, en réponse à une instruction générative, produit modifie ou complète automatiquement des textes » : Commission d’enrichissement de la langue française, « Liste relative au vocabulaire de l’intelligence artificielle (termes, expressions et définitions adoptés), JORF 6 septembre 2024, texte 51.

[31] En droit français, selon l’article 4-3 de la loi n° 2016-1547 du 18 novembre 2016 N° Lexbase : L1605LB3, les services en ligne de médiation, de conciliation ou d’arbitrage « ne peuvent avoir pour seul fondement un traitement algorithmique ou automatisé de données à caractère personnel. Lorsque ce service est proposé à l’aide d’un tel traitement, les parties doivent en être informées par une mention explicite et doivent expressément y consentir. Les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre sont communiquées par le responsable de traitement à toute partie qui en fait la demande. Le responsable de traitement s’assure de la maîtrise du traitement et de ses évolutions afin de pouvoir expliquer, en détail et sous une forme intelligible, à la partie qui en fait la demande la manière dont le traitement a été mis en œuvre à son égard ».

Dans le même ordre d’idées, il résulte du premier alinéa de l’article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés N° Lexbase : L8794AGS (dans sa rédaction issue de l’ordonnance n° 2018-1125 du 12 décembre 2018 N° Lexbase : L3271LNH) qu’« aucune décision de justice impliquant une appréciation sur le comportement d’une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne ». Et cet article de se poursuivre dans un second alinéa précisant que – sauf exception – « aucune décision produisant des effets juridiques à l’égard d’une personne ou l’affectant de manière significative ne peut être prise sur le seul fondement d’un traitement automatisé de données à caractère personnel, y compris le profilage ».

[32] Par exemple, en droit de l’Union européenne, l’article 22 du Règlement (UE) n° 2016/679 du 27 avril 2016 N° Lexbase : L0189K8I « RGPD » reconnaît, moyennant certaines exceptions (par exemple fondées sur le consentement explicite de la personne concernée), le « droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire ». 

[33] En droit du Conseil de l’Europe, voy. la Recommandation n° 2020/518 CM/Rec (2020) 1 du 8 avril 2020 N° Lexbase : L6757LW8, du Comité des ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l’Homme. Dans cette Recommandation le Comité des ministres énumère non seulement les évolutions positives (ex., gains d’efficacité), mais également les atteintes potentielles aux droits de l’homme (ex., droit à la vie privée et à la protection des données, droit au procès équitable…) consécutives au recours aux « systèmes algorithmiques ». Il est par exemple recommandé aux États de se doter d’institutions nationales de surveillance, de contrôle et d’évaluation des risques en matière d’intelligence artificielle. De même, les États sont invités à conférer, à ces institutions, les « ressources et pouvoirs nécessaires pour enquêter, superviser et coordonner le respect de leur cadre législatif et réglementaire pertinent, conformément à la présente recommandation » (Recommandation n° 2020/518, point 4). Le Comité des ministres insiste également sur l’information de toutes les personnes intéressées. Il s’agit de leur permettre « de comprendre les fonctionnalités et les ramifications des systèmes faisant appel à la prise de décision automatisée », de « prendre des décisions éclairées quant à l’utilisation de ces systèmes », de « profiter des avantages découlant de l’utilisation des systèmes algorithmiques » et de « réduire au minimum l’exposition aux dangers et aux risques qui y sont associés » (Recommandation n° 2020/518, point 7).

[34] Guide des bonnes pratiques, point 34.

[35] En droit du Conseil de l’Europe, voy. CEPEJ, Feuille de route révisée visant à assurer un suivi approprié de la Charte éthique européenne de la CEPEJ sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, 9 décembre 2021, CEPEJ (2021) 16. Ce document mentionne in fine la nécessité d’activités ciblées de sensibilisation et de formation en visant expressément les juges, les procureurs et les avocats. Les agents d’exécution pourraient opportunément être ajoutés à cette énumération.

Pour ce qui est des droits nationaux, voy. not l’article L. 312-9 du Code de l’éducation (français) N° Lexbase : L4020MMT, s’agissant de la sensibilisation aux bons usages de l’IA.

[36] Adde, G. Payan, Standards professionnels des huissiers de justice et autres agents d’exécution au prisme de la digitalisation de la Justice civile : perspectives européennes, Journal des tribunaux, Larcier, 14 septembre 2024, p. 477.

[37] AddeIntelligence artificielle et professionnels du droit : les nécessités d’une acculturation, Colloque organisé à la faculté de droit de Toulon, le 14 octobre 2024.

[38] Cour de district des États-Unis, S.D. New York le 22 juin 2023 (22-cv-1461/PKC) : décision citée par N. Fricero, Propos conclusifsin Intelligence artificielle et professionnels du droit : les nécessités d’une acculturation, Colloque organisé à la faculté de droit de Toulon, le 14 octobre 2024.

[39] Cour constitutionnelle colombienne, arrêt T-323, Blanca contre EPS, 2 août 2024 : M. Fandino, J. del Carmen Ortega et S. Gil, Comment un juge devrait-il utiliser l’IA ? Une première réponse avec une décision de la Cour constitutionnelle de Colombie  [en ligne] (consulté le 19 octobre 2024). Adde, S. Mauclair, Les impacts des systèmes d’intelligence artificielle sur les libertés et droits fondamentaux et les pratiques professionnelles, in Intelligence artificielle et professionnels du droit : les nécessités d’une acculturation, Colloque organisé à la faculté de droit de Toulon, le 14 octobre 2024.

[40] À rapprocher avec Commission européenne, Proposition de directive du Parlement européen et du Conseil modifiant la directive 2013/11/UE relative au règlement extrajudiciaire des litiges de consommation N° Lexbase : L5054IXH, ainsi que les directives (UE) 2015/2302 N° Lexbase : L6878KUB, (UE) 2019/2161 N° Lexbase : L0929LUX et (UE) 2020/1828 N° Lexbase : L8833LYS, COM (2023) 649 final, 17 octobre 2023 (spéc. art. 1er, § 3, b). Adde, N. Fricero et G. Payan, Conclusion générale –in P. Gielen, (dir.), L’huissier de justice : le tiers de confiance, Bruylant, 2024, p. 605 (spéc. p. 608).

[41] Par exemple, Guide des bonnes pratiques, points 25 et s.

[42] Guide des bonnes pratiques, point 25.

[43] J. Bruschi et T. Girard-Gaymard, « Les voies d’exécution sur crypto-actifs », D. 2024, p. 1686.

newsid:491239

Voies d'exécution

[Actes de colloques] L’intelligence artificielle - un besoin actuel dans les procédures de recouvrement de créances

Lecture: 13 min

N1241B3D

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491241
Copier

par Dovile Satkauskiene (LT), Directeur, Chambre des huissiers de justice de Lituanie, Secrétaire général de l'UEHJ

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

L’intelligence artificielle (ci-après dénommée l’IA) n’est pas un outil du futur, elle est nécessaire aujourd’hui. À l’époque où la technologie devient de plus en plus intelligente, il est important que les huissiers de justice aient la possibilité d’accéder à la technologie qui peut les aider à accomplir leurs tâches de manière plus efficace. En utilisant les outils appropriés, nous constatons que l’IA est un assistant inestimable pour la productivité. Elle permet de réserver des heures de travail, d’optimiser les flux de travail et d’allouer davantage de ressources aux tâches humaines qui ne peuvent être automatisées.

En Lituanie, dans le cadre de notre engagement à aider les huissiers de justice à améliorer les flux de travail et à accroître la transparence et la confiance avec les parties chargées du recouvrement de créances (créancier/débiteur), nous avons développé une série sur la façon dont l’IA peut aider à résoudre des problèmes existants et à améliorer les procédures quotidiennes du recouvrement de créances et à réaliser des fonctionnalités d’analyse de données.

Le présent article examine les applications de l’intelligence artificielle dans le système du recouvrement des créances en Lituanie, analyse les applications de l’IA actuellement utilisées par les huissiers de justice, observe quelles sont les solutions technologiques créées, fournit des cadres pour évaluer les applications de l’IA, et résume les risques à prendre en compte lors du déploiement des systèmes de l’IA. Aujourd’hui, nous pouvons déjà dire avec confiance que l’importance de la nouvelle loi, que la Commission européenne a déjà approuvée, contribuera à la gestion des risques liés au développement et à l’utilisation de l’intelligence artificielle. Enfin, dans le présent article, on va partager quelques idées sur les possibilités de développement de l’IA à l’avenir.

Comment un huissier de justice utilise-t-il l’IA en Lituanie ?

On peut penser que cela est réservé aux grandes entreprises technologiques, mais l’IA peut être utilisée dans une large gamme d’outils fonctionnels que les huissiers de justice peuvent exploiter pour améliorer l’efficacité et la précision dans leurs bureaux relativement petits. L’IA n’a pas (et n’aura probablement jamais) le pouvoir de remplacer les capacités humaines, mais elle peut effectuer des tâches qui prennent beaucoup de temps et préparer les données pour un examen, une analyse et des interactions humaines.

Dans la présente partie, on va discuter des changements liés à l’utilisation de l’intelligence artificielle observés en Lituanie lorsque nous parlons des activités des huissiers de justice.

Lorsque l’on parle de l’intelligence artificielle dans les procédures d’exécution en Lituanie, on distingue souvent deux grandes catégories : l’IA faible (IA étroite) [1] et l’IA forte (IA générale) [2]. On va explorer comment ces deux types [3] de l’intelligence artificielle sont mis en œuvre dans le cadre des activités des huissiers de justice en Lituanie grâce à des solutions informatiques réelles.

En développant des solutions de l’intelligence artificielle dans l’activité des huissiers de justice, nous nous sommes fixés comme objectif de résoudre certains problèmes qui prévalent dans la routine des activités quotidiennes des huissiers de justice, et il était particulièrement important de parvenir à une meilleure efficacité globale du recouvrement des créances en automatisant au maximum les processus. La question principale est de savoir quels sont les problèmes que l’IA peut résoudre et comment l’IA peut rendre le recouvrement de créances plus efficace. Il ne fait aucun doute que l’IA peut résoudre un large éventail de problèmes, mais les principaux domaines d’application de l’IA sont les suivantes :

1. l’automatisation des tâches de bureau quotidiennes et répétitives [4] ;

2. l’optimisation des processus et des procédures par l’analyse des données recueillies [5];

3. la consultation des clients par l’intermédiaire de chatbots.

En Lituanie, nous avons créé des systèmes d’information basés sur les principes de l’intelligence artificielle qui permettent aux huissiers de justice d’obtenir de meilleurs résultats dans leur travail quotidien. Dans la présente partie de l’article, on va discuter des principes de fonctionnement de trois systèmes [6] principaux.

  • Le système SKOLIS

Le système dénommé SKOLIS est un système qui fonctionne automatiquement (ci-après dénommé le système), est un outil conçu pour collecter, accélérer les données et fournir de manière pratique à un huissier de justice des informations sur les changements intervenus dans les données personnelles du débiteur, aider à l’analyse des informations [7] collectées et stockées électroniquement.

Le Système analyse les données suivantes :

1) les données reçues du conseil d’administration du fonds national d’assurance sociale près du ministère de la Sécurité sociale et du travail de la République de Lituanie (ci-après dénommé Sodra) ; 2) les données du registre de la population ; 

3) les données du Registre des biens immobiliers ; 

4) les données relatives aux paiements réels des débiteurs. Sodra fournit des informations sur l’emploi des personnes ou la résiliation du contrat de travail, les périodes de non-assurance, les informations sur les activités individuelles exercées par la personne, les allocations permanentes et temporaires perçues, ainsi que les données sur le nombre de salariés employés par des personnes morales. Le système demande périodiquement et automatiquement à la Sodra des informations sur les personnes et, après les avoir analysées et avoir déterminé qu’un changement s’est produit (par exemple, une personne a obtenu un emploi), il en informe un huissier de justice. Les informations et leurs modifications provenant d’autres registres sont également traitées selon des principes analogues.

L’un des principaux avantages de ce Système est qu’il permet de suivre les paiements des débiteurs. Lorsqu’il gère des événements ou détermine que le débiteur ne paie pas le paiement (ou paie un montant insuffisant), le système définit des statuts pour le débiteur, en fonction desquels un huissier de justice peut sélectionner des débiteurs et prendre des décisions portant sur d’autres mesures d’exécution. Ce processus de contrôle des paiements est conçu pour identifier les débiteurs qui n’ont pas effectué de paiement sur le compte de dépôt d’un huissier de justice dans un délai déterminé (par exemple, la période de deux mois, qui est le choix par défaut du système) ou qui ont payé moins que le montant minimum dû, spécifié par un huissier de justice. Ces débiteurs reçoivent le statut de contrôle des paiements et le statut de débiteur appropriés. Pendant l’exécution du processus, l’action inverse est également effectuée, c’est-à-dire qu’une fois que les paiements des débiteurs précédemment en défaut sont identifiés, les statuts des débiteurs sont effacés. Le processus est initié périodiquement chaque jour.

  • Le Système d’enchères électroniques

Les ventes aux enchères annoncées par les huissiers de justice lituaniens se déroulent uniquement sur internet et il n’est possible d’y assister qu’à distance. Cette procédure de vente aux enchères électroniques est entrée en vigueur le 1er janvier 2013. Les huissiers de justice réalisent les biens immobiliers et mobiliers des débiteurs en utilisant le portail internet unifié appelé Evarzytynes [8].

Les principes de l’IA installés sur le système permettent à l’acheteur de participer à une vente aux enchères électronique en augmentant le prix automatiquement et permettent même à l’acheteur de participer à plusieurs ventes aux enchères en même temps. Le système a donc été créé pour que l’acheteur puisse acheter un bien immobilier à l’aide des technologies de l’information et qu’il ne soit pas nécessaire qu’il se rende en personne au bureau de l’huissier de justice, car le système d’enchères électroniques et le Registre des biens immobiliers échangent des données par l’intermédiaire de réseaux intégrés. 

Après avoir déterminé la personne qui a gagné à l’enchère électronique, l’huissier de justice prépare l’accord et l’envoie électroniquement à l’acheteur pour signature, et le transfert au registre pour l’enregistrement de la propriété en utilisant des intégrations de systèmes d’information mutuels.

Les pays européens qui ont modernisé les procédures d’exécution des décisions sont, par exemple, le Portugal, l’Espagne, l’Estonie, l’Autriche, l’Allemagne[9], etc., où la vente aux enchères se déroulait auparavant entièrement ou partiellement en ligne. Contrairement à certains d’entre eux, en Lituanie, toutes les ventes aux enchères ont été transférées exclusivement dans l’espace électronique. En utilisant les technologies de l’information et en transférant les ventes de biens des débiteurs dans l’espace électronique, le législateur lituanien a voulu assurer la transparence et la publicité des ventes aux enchères, attirer un plus grand nombre de participants, activer la vente aux enchères pour le bien vendu et créer les conditions pour réaliser le bien au prix le plus élevé.

  • Le système d’information sur les restrictions des espèces

Le système d’information sur les restrictions des espèces (ci-après dénommé CRIS) a été lancé en septembre 2015 et a, en principe, remplacé la procédure existant avant cette date, à savoir que les donneurs d’ordre fournissaient des données aux établissements de crédit en utilisant différents systèmes et méthodes (sur papier et par voie électronique).

CRIS est un système d’information à fonctionnement automatique, qui permet à un huissier de justice de donner des ordres aux institutions de crédit pour radier des liquidités et imposer des restrictions d’une manière uniforme. CRIS lit les documents (ordres concernant les exigences monétaires) des huissiers de justice, détermine lequel des comptes bancaires du débiteur dispose de plus de fonds monétaires, envoie l’information à la banque afin que celle-ci exécute l’ordre de l’huissier de justice, c’est-à-dire, plus précisément, transfère certains montants récupérés sur le compte de dépôt de l’huissier de justice.

CRIS [10] assure la séquence des radiations en fonction de la priorité à satisfaire les créances et distribue les fonds du débiteur proportionnellement aux institutions détenant le droit de recouvrement imposé. Le système permet de contrôler les processus liés aux restrictions des espèces du débiteur et/ou aux radiations et garantit un échange de données efficace entre les participants au processus de restrictions des espèces. Les institutions détenant le droit au recouvrement imposé reçoivent rapidement des informations sur l’exécution des créances qu’elles ont présentées.

Les huissiers de justice peuvent donner des ordres au CRIS pour restreindre l’utilisation des fonds sur les comptes des débiteurs vingt-quatre heures sur vingt-quatre, tous les jours ouvrables de la semaine. CRIS transmet rapidement les ordres aux établissements de crédit où les comptes du débiteur ont été ouverts. Les établissements de crédit acceptent les ordres passés et les traitent pendant les heures ouvrables (généralement de 7 heures à 16 heures). Tous les ordres de radiation reçus par CRIS au cours d’une journée ouvrable avant 15h30 sont traités le jour ouvrable suivant, de 9 heures à 12 heures, si le compte du débiteur contient suffisamment d’argent et le solde peut être radié et/ou aucune notification du tribunal n’a été reçue concernant la suspension ou la résiliation des ordres de radiation.

Si on examine le programme de travail du système CRIS, on peut dire qu’il remplace non seulement un employé, mais qu’il réduit également la probabilité d’erreurs, car le traitement des données et le transfert de ces fonds monétaires, le calcul, l’acheminement vers la banque concernée sont vraiment compliqués et nécessiteraient beaucoup plus de temps que ce que la technologie de l’IA rend possible aujourd’hui.

  • Le Chatbot (Robot de chat)

Un autre exemple de l’IA étroite c’est que nous utilisons est le Chatbot qui génère des réponses écrites. Tout d’abord, nous testons cette solution dans le fonctionnement du bureau de la Chambre des huissiers de justice de Lituanie (ci-après dénommée la chambre), puis nous envisagerons la possibilité de l’offrir aux huissiers de justice pour qu’ils la mettent en œuvre dans leurs bureaux. La Chambre reçoit de nombreuses demandes de renseignements de la part de clients (créanciers et débiteurs) concernant le dossier d’exécution électronique, ainsi que l’application et l’interprétation de divers actes juridiques. Nous commençons donc à utiliser des réponses générées par l’IA qui nous aident à établir un contact personnel avec des clients sans avoir recours à des représentants humains, ce qui nous permet de gagner du temps et nous donne les moyens de réagir plus vite dans la fourniture des informations initiales.

Perspectives futures

L’intelligence artificielle peut contribuer à une économie plus innovante, plus efficace, plus durable et plus compétitive [11]. Tout en soutenant le développement de la technologie de l’IA, après des mois de négociations, le Conseil et le Parlement européen sont parvenus, le 9 décembre 2023, à un accord provisoire sur la loi. Le texte final a été approuvé par le Parlement et le Conseil, respectivement le 23 avril et le 21 mai 2024. La loi sur l’IA doit s’appliquer à partir de 2026. Elle est la première loi de ce genre dans le monde et peut établir une norme mondiale pour la réglementation de l’IA.

Le Parlement européen souligne que des obligations claires sont également prévues pour d’autres systèmes de l’IA à haut risque. Parmi les exemples d’utilisation de l’IA à haut risque, on peut citer [...] les services privés et publics essentiels (par exemple, les soins de santé, les services bancaires), certains systèmes de maintien de l’ordre, de gestion des migrations et des frontières, de justice et de processus démocratiques (par exemple, influencer les élections) [12]

Ce court article ne présente que quelques-unes des nombreuses incursions des huissiers de justice dans le domaine de l’IA en Lituanie. Alors que les projections mondiales [13] indiquent que l’IA est susceptible d’ajouter un montant stupéfiant de 15,7 millions de dollars à l’économie mondiale avant 2030, il est clair que la technologie est là pour durer.

En même temps, dans différents domaines, les experts s’accordent que la technologie et ses applications sont seulement au stage initial. On prédit que l’IA générative sera beaucoup plus puissante qu’aujourd'hui et sera associée à des robots puissants dont la taille pourrait aller de celle d’un insecte à celle d’un béhémot d’une tonne. Si nous injectons un cerveau intelligent dans un robot physiquement puissant, nous pouvons imaginer un avenir passionnant mais plein de défis.


[1] L'intelligence artificielle (IA) faible - également appelée IA restreinte - est un type d'IA qui se limite à un domaine spécifique ou restreint. Elle a le potentiel de profiter aux consommateurs en automatisant les tâches fastidieuses et en analysant les données d'une manière que les humains ne peuvent parfois pas [...] [en ligne].

[2]    L'IA forte, également connue sous le nom d'IA générale, fait référence aux systèmes d'IA qui possèdent une intelligence de niveau humain, voire qui dépassent l'intelligence humaine dans un large éventail de tâches. L'IA forte serait capable de comprendre, de raisonner, d'apprendre et d'appliquer des connaissances pour résoudre des problèmes complexes d'une manière similaire à la cognition humaine [...] [en ligne].

[3] Malgré ces différences subtiles, les termes sont utilisés de manière interchangeable dans de nombreuses discussions sur l’IA.

[4] Le système SKOLIS (skolis.lt) est utilisé ; Diverses données liées au lieu de travail du débiteur, aux revenus, aux avantages sociaux, à l'immobilier, aux changements de résidence ou à l'état civil sont analysées.

[5] À cette effect, le système d'information sur les restrictions en espèces (CRIS) et le système d'enchères électroniques sont utilisés ;

[6] SKOLIS, CRIS, Enchères électroniques

[7] Différentes données relatives au lieu de travail du débiteur, à ses revenus, à ses avantages, à ses biens immobiliers, à ses changements de résidence ou à son état matrimonial sont analysées.

[8] Portail internet unifié appelé Evarzytynes [en ligne].

[9] CEPEJ (2023(11)) Guide sur les enchères judiciaires électroniques [en ligne].

[10] Informations complémentaires disponibles sur le portail Internet VĮ Registrų centras [en ligne].

[11] Conseil de l’Europe, Un avenir numérique pour l'Europe [en ligne].

[12] Artificial Intelligence Act: MEPs adopt landmark law [en ligne].

[13] Données PwC [en ligne].

newsid:491241

Voies d'exécution

[Actes de colloques] Intelligence Artificielle et constat

Lecture: 5 min

N1287B33

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491287
Copier

par Sylvian Dorol, Commissaire de justice, Expert près l’UIHJ, Directeur scientifique de la revue Lexbase Contentieux et Recouvrement, Spécialiste de l’administration judiciaire de la preuve

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39


 

Question 1 : Tous les États européens ne connaissant pas le constat par huissier/ commissaire de justice, pouvez-vous rappeler l’objet (et les limites) de cette activité ?

Comme vous l’avez souligné, tous les pays européens ne sont pas familiers avec le constat, il est donc pertinent de l’expliquer en quatre points : nature, fonction, objectif, limite.

En ce qui concerne sa nature, le constat se définit comme un témoignage officiel provenant d'une personne assermentée, c'est-à-dire ayant prêté serment devant un juge. L'huissier de justice relate un fait qu'il a personnellement observé, perçu par ses sens. De par sa nature, il présente une force probante particulière, supérieure à celle d’un simple témoignage, grâce à la qualité de son auteur. Selon les pays, il a aujourd'hui une force authentique ou, jusqu'à preuve du contraire, mais reste toujours unique.

À propos de sa fonction, le constat sert de réceptacle à la preuve d’un fait juridique, qu’il soit matériel (état des lieux, dégât des eaux…) ou immatériel (atteinte à la e-réputation, par exemple). Il assure la conservation de cette preuve dans le temps, préservant son intégrité malgré le passage du temps.

Concernant son objectif, on a souvent coutume de penser que « constat d’huissier = procès ». Cela occulte le fait que la production d’un constat d’huissier de justice a une dimension fortement comminatoire : il s’agit d’un document influent émanant d’une personne dont la voix compte auprès du juge (la doctrine dit parfois que l’huissier est l’œil du juge). Toutes les parties en sont conscientes, et le constat est très rarement contesté. Puisque sa production auprès de la partie adverse constitue un avertissement formel et solennel, le constat se révèle être un outil de règlement amiable des conflits car il peut dissuader la partie adverse en mettant en avant la gravité des revendications du demandeur.

Quant à ses limites, le constat ne s'avère être qu'un garde-preuve. Il ne doit pas contenir d'avis de l’huissier de justice sur les explications ou conséquences liées au fait constaté. Ainsi, bien qu’il serve à conserver une preuve, il n’autorise pas l’huissier à juger le litige, ni même à évaluer la recevabilité de la preuve.

Avec l'évolution des technologies et le besoin croissant de prouver des faits, l’activité de constat est en forte augmentation.

Question 2 : Quelles sont les potentialités de l’IA : autrement dit, une IA peut-elle réaliser des constatations ?

À la question de savoir si une intelligence artificielle peut faciliter les constatations, il convient de nuancer la réponse. Nous pouvons avancer un oui et un non

Oui, l’intelligence artificielle peut effectivement faciliter les constatations. Elle peut assister l’huissier de justice dans l’usage d’un vocabulaire technique, à l'instar de Google Lens, ou embellir la construction de ses phrases, à l'aide d'outils comme Chat GPT. En effet, elle est capable de décrire une pièce et les objets qui s'y trouvent, et peut également apporter son éclairage en cas de doutes juridiques, à condition qu'elle soit formée à cet effet.

Cependant, non, l’intelligence artificielle ne peut pas être constatante. Pourquoi ? Pour plusieurs raisons. D’abord, il y a une question légale : l’huissier de justice est tenu d'effectuer ses constatations en personne et de se déplacer sur les lieux. Néanmoins, cet argument peut être contourné en imaginant que l’huissier de justice possède la maîtrise matérielle et intellectuelle de son l’intelligence artificielle, permettant ainsi de prétendre qu’il effectue des constatations grâce à celle-ci…

La notion de « constatations personnelles » souligne à la fois la qualité et l’identité physique de l’huissier. Nous arrivons alors à la limite de l’intelligence artificielle : elle n’est pas dans notre réalité ! Elle ne ressent pas, ne voit pas, ne touche pas, ne goûte pas, et n’entend pas. Certes, elle peut analyser des données informatiques qui simulent ces perceptions, mais elle n'a aucune expérience concrète du monde réel. En outre, elle peut « halluciner » et il est très facile de la tromper, et inversement. Par exemple, avez-vous vu cet article sur kombini.com où le photographe utilisant le pseudonyme Ibreakphotos a photographié la lune avec un smartphone et s'est rendu compte que l’IA avait ajouté des cratères ?

Ces faux-semblants créés par l’IA constituent un inconvénient majeur pour le constat, dans la mesure où il établit une vérité juridique.

Ainsi, puisque l’intelligence artificielle peut énoncer de fausses vérités, pourquoi ne produirait-elle pas de faux constats ? Une intelligence artificielle serait alors considérée comme criminelle !

Demander à l’intelligence artificielle de constater, c’est accepter une justice fondée sur des algorithmes, déshumanisée et, finalement, inhumaine… Il est essentiel de garder à l’esprit que l’intelligence artificielle est conçue pour convaincre l’intelligence humaine, et non simplement pour prouver !

Question 3 : Comment l’huissier de justice peut-il tirer profil de l’IA dans l’exercice de sa mission de constatation ? Par ailleurs, l’IA peut-elle constituer l’objet de la constatation ?

En somme, tant qu’un humain se trouve derrière l’intelligence artificielle, il pourrait y avoir constat sur son utilisation. L’actualité l’illustre parfaitement : aujourd’hui, plusieurs médias canadiens dénoncent l’utilisation non autorisée de leur contenu et réclament des compensations pour préjudice ainsi qu’une interdiction formelle de toute utilisation ultérieure.

Une des principales défenses d'OpenAI repose sur le fait que l'entraînement des intelligences artificielles nécessite l'utilisation d'un vaste corpus de textes accessibles au public pour générer des réponses variées et pertinentes… Nous l’avons vu : l’intelligence artificielle peut être au centre d’un conflit. En ce moment, j’ai une affaire où l’on me demande de constater qu’une intelligence artificielle a été formée à partir de documents privés (appartenant à une entreprise). Il s'agit de prouver non l'intelligence artificielle, mais le comportement humain problématique qui se cache derrière.

De plus, l’intelligence artificielle peut également être au cœur de la preuve, par exemple dans le cadre de la démonstration du processus de création d'une œuvre réalisée avec des outils d’intelligence artificielle générative tels que « Midjourney ».

newsid:491287

Voies d'exécution

[Actes de colloques] Digitalisation de la profession d’huissier de justice en Belgique : dernière étape avant l’arrivée de l’IA ?

Lecture: 20 min

N1230B3X

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491230
Copier

par Patrick Gielen (BE), Secrétaire de l’Union Internationale des Huissiers de Justice (UIHJ), Membre du comité scientifique de la revue Lexbase Contentieux et Recouvrement

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

Le 28 mai 2024 a été publiée au Moniteur belge la loi du 15 mai 2024 portant dispositions en matière de digitalisation de la justice et dispositions diverses II. 

Cette loi a pour objectif d’assurer une informatisation accrue de la justice et apporte de nombreuses modifications au Code judiciaire belge, améliorant ainsi une série de dispositions relatives à la profession d’huissier de justice.

Les modifications dont nous faisons état dans le présent article entrent en vigueur au 1er janvier 2026 prochain afin de permettre à la Chambre nationale des huissiers de justice de procéder aux adaptations nécessaires.

I. Signification électronique

L’article 32quater/1, §1er, du Code judiciaire belge est modifié pour renforcer la sécurité juridique et préciser le processus de signification électronique. 

Cette modification vise à s'assurer que le destinataire a bien pris connaissance de l'acte, en établissant des critères clairs pour la validité des significations effectuées par voie électronique.

En effet, jusqu’à présent, dans le cas où on effectue la signification à l’adresse judiciaire électronique [1], il n’y avait pas d’obligation de s’assurer de la prise de connaissance effective du document [2]

Le simple envoi à l’adresse judiciaire électronique suffisait pour la signification électronique soit valable.

Nouvelle version de l’article 32quater/1, § 1er

« La signification par voie électronique est faite à l’adresse judiciaire électronique à condition que le destinataire ait pris connaissance de ladite signification et ce, en ouvrant l’avis de signification tel que mentionné au paragraphe 2. À défaut d’adresse judiciaire électronique, ou si la signification par voie électronique à cette adresse est impossible, notamment pour des motifs techniques ou si le destinataire a fait usage d’une possibilité qui lui est offerte par la loi de ne pas consentir à l’échange de messages par le biais de l’adresse judiciaire électronique, ladite signification peut également être faite à l’adresse d’élection de domicile électronique, à la condition que le destinataire y ait consenti, chaque fois pour la signification en question, de manière expresse et préalable selon les modalités fixées par le Roi.»

Comme il ressort des travaux préparatoires, depuis 2018, les huissiers de justice peuvent, dans la grande majorité des cas où une signification doit être faite, opter pour la signification par voie électronique comme alternative à la signification effectuée par voie classique. 

Actuellement, cette signification électronique est limitée [3], car elle est presque essentiellement réservée aux institutions bancaires, aux compagnies d’assurances, aux autorités publiques et, plus généralement, à toute entreprise intéressée.

Cette possibilité de signification par voie électronique (que ce soit la signification à l’adresse judiciaire électronique ou à l’adresse d’élection de domicile électronique) a débouché sur la création du Registre central des actes authentiques dématérialisés des huissiers de justice (RCDA ; voir article 32quater/2, § 1er , alinéa 1er, du Code judiciaire belge). Ce registre visait dès le départ à centraliser tous les actes authentiques sous forme dématérialisée. 

Les actes qui sont traditionnellement signifié doivent désormais également être chargés manuellement dans les trois jours suivant la signification. Les actes signifiés par voie électronique à une “adresse d’élection de domicile électronique” (article 32quater/1 du Code judiciaire) sont automatiquement inscrits au registre.

Tous les actes signifiés par huissiers de justice sont donc enregistrés dans le registre central des actes authentiques dématérialisés.

À la lumière des récentes modifications des règles relatives aux communications électroniques dans le contexte judiciaire, l’attribution aux justiciables d’une adresse judiciaire électronique visée à l’article 32, 5°, du Code judiciaire, semble imminente. Cette attribution a le potentiel d’étendre considérablement l’application de la signification par voie électronique.

Actuellement l’huissier de justice ne peut signifier qu’à l’adresse d’élection de domicile électronique qui suppose le consentement exprès du destinataire de l’acte.

Pourquoi cette modification ?

Dans un souci de renforcer la sécurité juridique, la loi du 28 mai 2024 met désormais l'accent sur la réception effective de l’acte par le destinataire, exigence confirmée depuis longtemps par la CEDH dans deux arrêts important [4]

Jusqu'à présent, l’absence d’un mécanisme permettant de vérifier si le destinataire avait effectivement pris connaissance de l’acte signifiait un risque juridique pour l’ensemble de la procédure. Cette modification cherche à éliminer ce risque en exigeant une preuve de réception.

Concrètement, comment fonctionne ce nouveau processus ?

  • Vérification de la réception : l’ouverture de l’avis de signification électronique par le destinataire devient une condition essentielle pour valider la signification. L’huissier de justice doit être en mesure de s’assurer que l’acte a été reçu.
  • Signification à l’adresse d’élection de domicile électronique : si l’adresse judiciaire électronique n’est pas utilisable ou si le destinataire refuse les échanges électroniques, l’huissier peut effectuer la signification à l’adresse d’élection de domicile électronique [5] sous réserve d’un consentement explicite et préalable de la part du destinataire.

La différence fondamentale entre la signification à l’adresse judiciaire électronique et à l’adresse d’élection de domicile judiciaire réside dans le fait que pour la première il faut uniquement l’ouverture de l’avis de signification alors que pour la seconde il faut un consentement exprès de la part du destinataire de l’acte.

Dans un souci d’une plus grande sécurité juridique, la loi du 28 mai 2024 entend ici mettre prioritairement l’accent sur la réception effective de la signification par le destinataire. 

Concrètement, l’ouverture de l’avis de signification par voie électronique, qui pourra, à l’avenir, être envoyé par l’huissier de justice à l’adresse judiciaire électronique du destinataire, devient une condition pour que la signification puisse aussi effectivement avoir lieu par voie électronique à l’adresse judiciaire électronique du destinataire. L’huissier de justice doit en effet pouvoir s’assurer que le destinataire a pris connaissance de la signification et a donc pu recevoir l’acte. Cette sécurité est et reste primordiale et constitue une valeur ajoutée intrinsèque de l’intervention de l’huissier de justice que ce soit dans le cadre d’une signification classique ou d’une signification électronique.

Le rôle fondamental de l’huissier de justice reste donc garanti à la suite de cette modification législative importante.

Modifications apportées au paragraphe 2, alinéa 1er

L’alinéa 1er du paragraphe 2 a été clarifié pour mieux expliquer le processus de confirmation de la signification électronique.

Nouvelle version de l’article 32quater/1, § 2 et § 3:

« Lors de l’ouverture de l’avis de signification par voie électronique ou de l’octroi du consentement à la signification par voie électronique, par le destinataire, dans les vingt-quatre heures suivant l’envoi de l’avis précité ou de la demande de consentement à la signification par voie électronique au destinataire, le Registre central visé à l’article 32quater/2, §1er, alinéa 1er, fait parvenir un avis de confirmation de signification à l’huissier de justice ayant signifié l’acte. Dans ce cas, la signification est réputée avoir eu lieu à la date d’envoi de l’avis de signification précité ou de la demande de consentement précitée. »

Cette modification assure un suivi rigoureux du processus de signification. 

En l'absence de réception de l'avis de confirmation, l'huissier doit alors prendre d’autres mesures pour garantir la validité de la signification.

Procédure résumée de la signification à l’adresse judiciaire électronique :

  • envoi de l'avis par l’huissier : l’huissier de justice envoie un avis de signification par voie électronique à l’adresse judiciaire électronique du destinataire.

Deux scénarios possibles :

  • l’avis de signification n’est pas ouvert : l’huissier procède alors à une signification à personne, conformément à l'article 33 du Code judiciaire.
  • l’avis de signification est ouvert dans les vingt-quatre heures suivant l’envoi : un « avis de confirmation de signification » est généré et envoyé à l’huissier via le Registre central des actes dématérialisés (RCAD).

Deux possibilités : 

  • le destinataire ouvre également l’acte dans les vingt-quatre heures suivant la réception de l'avis de signification : un « avis de confirmation de signification et d’ouverture de l’acte » est généré et envoyé à l’huissier. La signification est réputée avoir eu lieu à la date d’envoi initiale de l’avis.
  • le destinataire n'ouvre pas l’acte dans les vingt-quatre heures : l'huissier doit envoyer une lettre ordinaire au destinataire l’informant de la signification.

II. Dématérialisation des actes de l’huissier de justice

L’article 509, § 1er, du Code judiciaire belge a également été modifié pour officialiser la dématérialisation des actes de l’huissier de justice.

Nouvelle version de l’article 509, § 1er du Code judiciaire belge :

« Les huissiers de justice sont des fonctionnaires publics et des officiers ministériels dans l’exercice des fonctions officielles qui leur sont assignées ou réservées par une loi, un décret, une ordonnance ou un arrêté royal.

Ils confèrent l’authenticité à leurs actes conformément à l’article 8.1, 5° du Code civil. Chaque acte est établi sous forme dématérialisée et signé conformément à l’article 8.15, alinéa 3, du Code civil[6]. Le Roi peut en déterminer les modalités.

S’il est, pour des raisons techniques ou de force majeure, impossible d’établir l’acte sous forme dématérialisée conformément à l’alinéa 2, il peut être établi sous forme non dématérialisée.
L’acte visé à l’alinéa 2, dernière phrase, est enregistré dans le Registre central visé à l’article 32quater/2, §1er, alinéa 1er, dès qu’il est signé. Dès que l’impossibilité visée à l’alinéa 3 cesse d’exister, l’acte visé dans le même alinéa est dématérialisé selon les modalités déterminées par le Roi et est ensuite enregistré dans le même Registre central.

En cas d’impossibilité de présenter ou de recevoir un acte sous forme dématérialisée pour des raisons techniques ou pour des raisons de force majeure, une copie de l’acte certifiée conforme par l’huissier de justice peut être présentée ou reçue. »

La présente loi dispose désormais que chaque acte d’huissier de justice sera désormais, en principe, établi sous forme dématérialisée (= électronique) et signé de manière électronique.

Il existe toutefois une exception à ce principe lorsque l’établissement sous forme dématérialisée s’avère impossible pour des raisons techniques ou de force majeure. Dans ce cas, l’acte peut encore être établi sous forme non dématérialisée (= sur papier) et doit, dans les trois jours calendrier, être inscrit sous forme dématérialisée au Registre central des actes authentiques dématérialisés des huissiers de justice visé à l’article 32quater/2, § 1er, alinéa 1er, du Code judiciaire (RCAD).

Explication détaillée de la modification :

  • dématérialisation par défaut : chaque acte (original) est désormais établi sous forme dématérialisé et signé électroniquement. Cette modification modernise le travail des huissiers de justice et garantit l’authenticité des actes dématérialisés et permet d’avoir une base de données reprenant tous les actes signifiés par huissier de justice
  • exceptions en cas d’impossibilité technique : lorsque la dématérialisation est impossible pour des raisons techniques ou de force majeure, l’huissier est autorisé à établir l’acte sous forme papier. L’acte sera ensuite scanné et enregistré dans le RCAD dès que l’impossibilité aura été résolue.
  • copie certifiée conforme : dans des situations où la présentation ou la réception de l’acte électronique est impossible, une copie certifiée conforme peut être utilisée.

L’avantage de la dématérialisation de l’original de l’acte de procédure établi par l’huissier de justice réside dans la possibilité de créer un éventuel dossier judiciaire entièrement numérique. Grâce à l’utilisation des métadonnées, stockées à la chambre nationale des huissiers de justice, ce dossier peut être transmis électroniquement entre les différents acteurs juridiques, tout en respectant les exigences du RGPD.

Signature des actes

L’huissier de justice utilise une signature électronique qualifiée, tandis que le débiteur appose une simple signature. Grâce à son statut d’officier ministériel, l’huissier certifie avoir bien rencontré le destinataire, ce qui garantit l’authenticité et la régularité de la procédure.

Modification de l’article 33, alinéa 1er, du Code judiciaire

« La signification est faite à personne lorsque la copie de l’acte est remise en mains propres du destinataire et l’acte est présenté à la signature moyennant un outil électronique permettant sa visualisation et sa signature. »

Cette disposition exige désormais que l’acte dématérialisé soit présenté à la signature du destinataire via un outil électronique (ex : une tablette). Cela renforce la traçabilité et l'authenticité de la procédure de signification.

Nous voyons dans cette approche une avancée majeure pour la signification des actes judiciaires, qui allie les avantages de la dématérialisation de l’original avec la possibilité de remettre une copie papier au destinataire. Cette combinaison représente un équilibre idéal entre le besoin de maintenir un contact humain et celui de moderniser les processus judiciaires par la digitalisation. Ce modèle permet ainsi de préserver le lien personnel avec les parties, tout en intégrant les bénéfices de l’innovation numérique. On peut véritablement parler ici d'une « humanisation de la digitalisation », où l’évolution technologique se met au service de l’accessibilité et de l’efficacité tout en respectant les interactions humaines essentielles dans la justice et plus particulièrement dans le métier d’huissier de justice.

III. L’Intelligence artificielle (IA), prochaine étape ?

L'intelligence artificielle (IA) représente une évolution naturelle dans le processus de signification électronique et la dématérialisation des actes d’huissier de justice. 

Elle peut s’avérer un allié de taille dans l’optimisation des tâches et le renforcement du rôle central de l'huissier de justice tout en s'inscrivant dans un cadre éthique et déontologique strict.

L'intégration de l'IA dans les procédures judiciaires pourrait offrir des avantages substantiels, tout en renforçant le rôle central de l'huissier de justice et en optimisant les procédures actuelles.

A. Automatisation et vérification des procédures

L'IA pourrait assister les huissiers de justice dans la rédaction des actes de signification en proposant des modèles adaptés aux circonstances spécifiques de chaque cas. Par exemple, en analysant le contenu de l'acte et les informations sur le destinataire, l'IA pourrait suggérer la formulation la plus appropriée, voire anticiper les mentions nécessaires en fonction du contexte.

L'utilisation de l'IA permet également une vérification systématique des formalités requises (présence des mentions obligatoires, signature, date, etc.), réduisant ainsi les risques d'erreurs qui pourraient invalider la procédure.  Par exemple, l'IA pourrait alerter l'huissier si une mention légale est manquante ou si le consentement du destinataire n'a pas été correctement enregistré.

L'IA peut également assurer un suivi précis du respect des délais légaux et alerter l'huissier en cas de non-conformité. Cette automatisation se présente comme un outil facilitateur et non une menace pour les professions juridiques.

B. Gestion centralisée et intelligente des données

En centralisant les données liées aux actes dématérialisés auprès de la Chambre Nationale des Huissiers de Justice, l'IA pourrait les traiter de manière globale. 

Cette centralisation permettrait à l’IA de générer des rapports statistiques pour évaluer l'efficacité des significations électroniques et identifier les cas nécessitant une intervention humaine ou une modification législative.

C. Support à la prise de décision

L'IA peut aider les huissiers de justice à décider du mode de signification le plus adapté ou le plus réaliste.

Par exemple, en tenant compte des caractéristiques du destinataire (âge, niveau de familiarité avec les technologies, contexte juridique, domicile, …), l'IA peut suggérer une signification à personne si la voie électronique n'est pas appropriée. De plus, en cas de problèmes, l'IA peut rechercher et extraire les informations pertinentes du registre central pour assister l’huissier dans ses démarches.

D. Notification intelligente et analyse prédictive

L’IA peut permettre d’envoyer des notifications intelligentes, en fonction de l’historique des réactions du destinataire. 

Par exemple, si l’IA détecte qu’un destinataire répond mieux à des rappels spécifiques, elle peut ajuster automatiquement la fréquence et le moment de ces envois pour maximiser les chances de réception. De plus, l’IA pourrait prédire les cas de non-réception, alertant l’huissier pour qu’il prenne des mesures alternatives. Ces fonctionnalités renforcent l'efficacité et la sécurité des procédures tout en libérant l'huissier de tâches répétitives.

E. Contrôle et aide à la conformité

L'IA peut également jouer un rôle dans le contrôle du respect des dispositions du Code judiciaire, en alertant les huissiers en cas de non-conformité. La traçabilité accrue des procédures de signification électronique serait ainsi garantie.

F. Défis éthiques et juridiques liés à l'IA

L'utilisation de l'IA dans la profession d’huissier de justice implique des considérations éthiques, telles que la protection des données personnelles et la transparence des algorithmes : 

  • Protection des données personnelles : l'IA doit se conformer strictement aux réglementations sur la protection des données, telles que le RGPD. Les données traitées (comme les caractéristiques du destinataire ou son comportement en ligne) doivent être sécurisées et utilisées uniquement dans le cadre des procédures judiciaires.
  • Garantie de l’intervention humaine : même si l'IA propose des analyses et des recommandations, la décision finale doit toujours être prise par l'huissier de justice. Ce principe est essentiel pour garantir l'équité et l'intégrité des procédures, notamment dans les cas complexes qui nécessitent une évaluation humaine approfondie.

L’IA est là, uniquement, pour alléger la charge de travail en automatisant les tâches répétitives et en fournissant des analyses précises, l'humain, quant à lui, reste primordial pour garantir l'équité et l’intégrité des procédures. En outre, l'intervention humaine est indispensable dans les cas nécessitant un contact direct ou une approche personnalisée.

La Convention-cadre adoptée par le Conseil de l'Europe

La récente Convention-cadre adoptée par le Conseil de l'Europe souligne l’importance et la nécessité de maintenir un équilibre entre l’automatisation et la préservation des droits fondamentaux des justiciables. Elle encourage l’usage de l'IA dans le domaine judiciaire, tout en insistant sur la nécessité de respecter la vie privée, la protection des données et l’intervention humaine lorsque les enjeux sont critiques.

L’intégration de l’IA, tout en centralisant les opérations auprès de la chambre nationale des huissiers de justice, offrirait une efficacité accrue et une meilleure sécurité juridique. Cela permettrait non seulement d'accélérer les processus, mais également de libérer du temps pour les huissiers, leur permettant de se concentrer sur des tâches à forte valeur ajoutée.

Les outils d'IA doivent être perçus comme des assistants augmentant l’efficacité du travail des professionnels du droit. Cette vision est partagée par des études récentes, qui montrent que l'IA générative peut améliorer le travail juridique sans remplacer totalement les professionnels​. 

L’importance de la formation en AI

La formation joue un rôle crucial dans l'implémentation efficace de l'IA au sein des systèmes juridiques. L'intégration des technologies de l'IA dans la pratique professionnelle nécessite non seulement une acculturation progressive des professionnels du droit, mais également une formation continue et adaptée. Il s’agit d’appréhender l’IA comme un outil d’assistance et non comme une menace pour la profession, tout en s’assurant d’une utilisation éthique et sécurisée.

Lors d'une journée de formation organisée par l'Institut National des Formations Notariales (INFN), il a été mis en avant que l’IA pourrait véritablement révolutionner les pratiques juridiques. Cependant, cette révolution technologique ne peut se faire que si les professionnels sont formés de manière continue et approfondie. La formation doit inclure des aspects techniques de l’IA, comme son utilisation dans la recherche juridique et l’automatisation des tâches, mais aussi aborder les enjeux éthiques, la protection des données, et la cybersécurité.

En somme, la formation est la clé de l'acceptation et de l'implémentation réussie de l'IA dans les systèmes juridiques. Elle garantit non seulement une utilisation optimale des outils d’IA, mais également la préservation du rôle essentiel des professionnels du droit dans le processus décisionnel et la protection des droits des justiciables.

Conclusion

Les modifications apportées au Code judiciaire renforcent le processus de signification électronique en assurant une réception effective par le destinataire. 

L’obligation pour l’huissier de justice de vérifier que l’avis a été ouvert garantit une sécurité juridique accrue. Par ailleurs, la dématérialisation des actes officialise l’usage des outils électroniques et assure une procédure moderne, efficace et transparente.

Ces adaptations reflètent la volonté d’aligner les procédures judiciaires sur les avancées technologiques, tout en préservant les garanties indispensables à la sécurité juridique des actes.

Ces modifications sont l’une des dernières étapes avant l’arrivée de l’IA qui pourrait représenter une avancée significative dans la transformation numérique de la profession des huissiers de justice en Belgique. 

En automatisant les tâches répétitives, en offrant une analyse précise des procédures et en optimisant la gestion des actes, elle permet aux huissiers de se concentrer sur leur rôle fondamental : l’application des lois et la protection des droits des justiciables.

Toutefois, cette évolution doit être soigneusement encadrée pour garantir la protection des données et le maintien de l’intervention humaine, conformément aux principes énoncés par les instances européennes et internationales. L’arrivée de l’IA n’est pas une substitution mais plutôt un complément visant à renforcer l'efficacité, la transparence et la sécurité juridique de la profession.


[1] Qui n’est à ce jour pas possible dès lors que nous ne disposons pas encore d’une adresse judiciaire électronique.

[2] Le simple envoi de l’acte à signifier à l’adresse judiciaire électronique valait signification.

[3] En effet elle ne peut être faite qu’à l’adresse d’élection de domicile électronique (soit à une adresse mail « privée » du destinataire.

[4] Voy. CEDH, 13 décembre 2011, Req. 43330/09, Trudov c/ Russie. L’affaire portait sur une violation du droit à un procès équitable (CEDH, art 6, § 1 N° Lexbase : L7558AIR). Dans cette affaire, M. Trudov s'est plaint de n'avoir pas été informé valablement de la date et du lieu de l'audience en appel, qui s'est tenue en son absence alors qu'un représentant du ministère public était présent. La Cour a statué en faveur de Trudov, concluant que cette situation constituait une violation de son droit à un procès équitable. Voy. aussi CEDH, 31 juillet 2012, Req. 7363/04, Mikryukov et autres c/ Russie. L’affaire concernait principalement des violations de l'article 6 de la Convention européenne des droits de l'Homme des droits de l'Homme et des libertés fondamentales, qui garantit le droit à un procès équitable. Le cas porte sur des questions d'exécution de décisions judiciaires et d'accès à des droits garantis, similaires aux préoccupations soulevées dans d'autres affaires impliquant la Russie. La Cour a tranché en faveur des requérants, estimant que le retard dans l'exécution des décisions judiciaires privait les personnes de leurs droits effectifs et équitables, en violation des obligations de l'État.

[5] Signification effectuée à une adresse courriel privée.

[6] De manière électronique.

newsid:491230

Voies d'exécution

[Actes de colloques] L'intégration de l'Intelligence artificielle dans les voies d'exécution

Lecture: 19 min

N1192B3K

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491192
Copier

par Carlos Calvo (LUX), Vice-Trésorier UIHJ

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

I. Introduction avec contexte réglementaire

L'intelligence artificielle (IA) transforme de nombreux secteurs, y compris le domaine juridique. Les huissiers de justice, en tant qu'acteurs clés des voies d'exécution des décisions judiciaires et du recouvrement des créances, se trouvent à la croisée des chemins entre tradition et modernisation technologique. L'IA, avec ses capacités d'automatisation, d'analyse de données et de prédiction, offre des solutions concrètes et intéressantes pour améliorer l'efficacité des procédures d'exécution. Cependant, ces innovations soulèvent des questions éthiques et juridiques majeures qui nécessitent une vigilance constante. Le 24ème Congrès de l’Union internationale des huissiers de justice (Dubaï 2021) a recommandé que les droits fondamentaux des parties dans les procédures d'exécution numérique soient toujours garantis, et que la technologie ne remplace jamais les qualités humaines des huissiers de justice.

Le cadre juridique entourant l'IA, notamment l'IA Act de la Commission européenne [1] et la Convention-cadre du conseil de l'Europe sur l’intelligence artificielle [2], impose une réflexion approfondie sur les responsabilités et les pratiques à adopter pour garantir une utilisation appropriée de ces technologies. Voyons comment l'IA contribue aux voies d'exécution, en mettant en évidence ses avantages, ses défis et ses perspectives.

II. Le Rôle de l'huissier de justice dans les voies d'exécution : entre tradition et modernité

Le rôle fondamental de l'huissier de justice consiste à exécuter les décisions judiciaires, à signifier des actes et à recouvrer des créances. Cette mission implique une rigueur et un respect strict des procédures, qu'il s'agisse de saisies, de ventes judiciaires ou d'expulsions. En tant que juriste de proximité, l'huissier de justice est souvent la première interface à visage humain que le citoyen a de la justice, offrant un soutien et une écoute attentive, tout en apportant un contact humain essentiel dans l'exécution des décisions. Le 24e Congrès de l’UIHJ a souligné que la technologie ne doit jamais remplacer les qualités humaines des huissiers de justice, et que ces derniers doivent rester au cœur du processus d'exécution.

Cependant, ces tâches peuvent être lourdes, en raison de la complexité des procédures et du volume des dossiers à traiter. C'est ici que l'IA peut apporter une valeur ajoutée significative en allégeant les charges administratives et en optimisant les processus et workflows, tout en permettant aux huissiers de se concentrer sur les aspects humains de leur mission.

L'adoption des technologies d'IA doit se faire dans le respect des lignes directrices de l'IA Act de la Commission Européenne, garantissant une utilisation transparente, équitable et respectueuse des droits fondamentaux. Le Conseil de l'Europe insiste également sur la nécessité d'une supervision humaine des systèmes d'IA, afin de s'assurer que les décisions finales soient validées par des professionnels qualifiés.

III. Automatisation, IA et tâches répétitives dans les voies d'exécution

A. Différence entre automatisation et intelligence artificielle

L’automatisation et l’intelligence artificielle sont souvent confondues, alors qu'elles reposent sur des concepts bien distincts. Dans le cadre des voies d'exécution, il est crucial de bien saisir cette différence pour exploiter au mieux ces technologies et améliorer à la fois les processus judiciaires et administratifs.

L’automatisation se base essentiellement sur la réalisation de tâches répétitives programmées à l'avance, permettant à des systèmes d'exécuter ces actions sans intervention humaine. Bien que ce processus soit efficace pour des tâches simples et récurrentes, il ne nécessite ni analyse des données, ni prise de décision complexe.

L’intelligence artificielle, en revanche, va beaucoup plus loin. Elle cherche à reproduire certaines capacités humaines, comme l’analyse et la prise de décision, en s’appuyant sur des algorithmes d’apprentissage automatique. L'IA est capable de traiter de vastes quantités de données, de repérer des tendances, et d’adapter ses actions en fonction des situations. Elle ne se contente pas d'exécuter des tâches : elle apprend des résultats passés pour améliorer ses réponses futures.

Dans les voies d’exécution, combiner ces technologies permet d’automatiser des tâches administratives courantes tout en exploitant les capacités de l’IA pour gérer des situations plus complexes et ajustées aux particularités de chaque dossier.

Par exemple, l'envoi de courriers de relance pour des paiements en retard peut être automatisé. Un huissier peut programmer des envois automatiques à des dates précises, sans devoir rédiger chaque lettre manuellement. L'IA, en revanche, pourrait analyser le profil du débiteur, ses antécédents de paiement, et déterminer si un appel personnel serait plus efficace qu'une simple relance et / ou personnaliser l’acte à signifier.

B. Exemples concrets d'automatisation avec l'IA dans les voies d'exécution

Selon l'IA Act de la Commission Européenne, les huissiers doivent s'assurer que les systèmes automatisés soient classés selon leur niveau de risque, en respectant les catégories définies par la régulation. Par exemple, la génération automatisée de courriers et d'actes peut être considérée comme une tâche à faible risque tant qu'elle est supervisée par un humain. En automatisant ces processus, les huissiers peuvent se décharger des aspects les plus fastidieux de leur travail, tout en réduisant le risque d'erreurs humaines.

L'IA peut également considérablement accélérer les procédures d'exécution en automatisant des tâches telles que la recherche de biens, la communication avec les parties, et l'analyse de solvabilité. Cette efficacité accrue se traduit par une diminution des coûts et une meilleure allocation des ressources humaines. Grâce à l'IA, les huissiers peuvent communiquer plus efficacement avec les débiteurs, que ce soit par email, SMS ou autres moyens, tout en adaptant leur ton à chaque situation.  

En revanche, l'analyse prédictive, une application plus avancée de l'IA, pourrait être classée comme une technologie à risque moyen à élever. Par exemple, un système d'IA pourrait analyser des centaines de dossiers de débiteurs pour prédire ceux qui ont le plus de chances de ne pas honorer leurs dettes, aidant ainsi les huissiers à prioriser leurs efforts.

IV. Avantages et défis de l'intégration de l'IA dans les voies d'exécution

A. Avantages de l'IA dans les voies d'exécution

  • Recherche de biens : en utilisant des bases de données publiques et privées, l'IA peut automatiser la recherche d'actifs saisissables. Cela permet d'identifier plus rapidement les biens appartenant aux débiteurs, améliorant ainsi l'efficacité et réduisant le temps nécessaire pour localiser des actifs.
  • Analyse de solvabilité : l'IA peut analyser les données financières des débiteurs pour déterminer leur solvabilité et évaluer les meilleures stratégies de recouvrement. Elle peut prendre en compte des éléments tels que l'historique de paiement, le niveau d'endettement et les changements récents de situation, comme des faillites ou des variations d'emploi. En conséquence, les huissiers peuvent privilégier une approche plus adaptée, par exemple une solution amiable dans les cas où la solvabilité est faible.
  • Détection de fraude : en analysant de grandes quantités de données, l'IA peut identifier des comportements suspects ou des anomalies, comme des transferts d'actifs peu avant une saisie ou des incohérences dans les déclarations. Cela permet d'alerter les huissiers des cas nécessitant une enquête approfondie, améliorant ainsi la protection des créanciers.
  • Communication personnalisée sur plusieurs canaux : l'IA permet d'adapter la communication aux préférences du débiteur, que ce soit par email, SMS ou messageries instantanées. L'algorithme identifie le canal le plus efficace et ajuste le ton du message pour maximiser l'engagement, ce qui favorise de meilleurs taux de réponse et de recouvrement.
  • Assistance via chatbot : les chatbots utilisant l'IA peuvent répondre instantanément aux questions des débiteurs, fournir des informations sur les procédures et orienter vers les étapes suivantes. Disponibles vingt-quatre heures sur vingt-quatre et sept jours sur sept, ces chatbots déchargent les huissiers des tâches administratives répétitives tout en offrant un service rapide et précis.
  • Réduction des coûts opérationnels : l'efficacité accrue par l'automatisation des processus réduit les coûts liés aux opérations courantes des études d'huissiers. Le gain de temps sur des tâches répétitives permet de diminuer la charge administrative et d'allouer les ressources à des activités à plus forte valeur ajoutée.
  • Concentration sur des aspects stratégiques : en automatisant les tâches administratives, l'IA permet aux huissiers de se concentrer sur des aspects plus stratégiques et personnalisés des dossiers, tels que la négociation et la gestion des cas complexes.
  • Optimisation des routes : les algorithmes d'IA peuvent optimiser les tournées des huissiers en tenant compte du trafic, des horaires des débiteurs, et des priorités des dossiers. Cela contribue à minimiser les coûts et le temps de déplacement, tout en permettant une meilleure gestion des ressources disponibles.

B. Défis de l'Intégration de l'IA

  • Complexité de la mise en œuvre : l'intégration des systèmes d'IA dans les environnements juridiques est complexe et nécessite des ajustements techniques conséquents, une formation approfondie du personnel, ainsi que des investissements financiers importants. Pour réussir cette transformation, il est crucial de planifier soigneusement chaque étape du déploiement et de s'assurer que les collaborateurs soient bien préparés à utiliser ces nouvelles technologies.
  • Résistance au changement : l'adoption de l'IA rencontre souvent une résistance au niveau institutionnel et individuel. Les craintes concernant la perte d'emploi, le manque de familiarité avec la technologie et la réticence à changer des processus bien établis peuvent ralentir l'intégration. Pour surmonter ces obstacles, il est fondamental d'impliquer les parties prenantes dès le début, de communiquer sur les bénéfices attendus et de proposer des formations adaptées pour faciliter la transition.
  • Confidentialité et sécurité des données : l'utilisation de l'IA soulève des préoccupations importantes en matière de confidentialité et de sécurité. Les systèmes doivent être conçus pour garantir la protection des informations sensibles des clients, et la conformité aux réglementations telles que le RGPD est essentielle. Des mécanismes de contrôle stricts doivent être mis en place pour assurer que les données sont traitées de manière sécurisée, minimisant ainsi les risques d'accès non autorisé ou de fuite d'informations.

V. Exemples concrets dans les voies d'exécution : ce qu'il faut faire et ce qu'il faut éviter

A. Bonnes Pratiques

  • Automatisation des relances : utiliser des outils d'IA pour analyser le comportement des débiteurs et personnaliser les relances de paiement avant la date d'échéance. Par exemple, un algorithme IA pourrait identifier un débiteur ayant montré de bonnes intentions en se basant sur des analyses comportementales et envoyer un message adapté et personnalisé, tandis qu'un débiteur ignorant les relances précédentes pourrait recevoir une notification plus formelle et adaptée à son profil.
  • Analyse prédictive pour prioriser les dossiers : utiliser des modèles d'IA pour analyser en temps réel les comportements de paiement et identifier les dossiers présentant les plus hauts risques de défaillance. L'IA peut prendre en compte des paramètres tels que les antécédents de paiement, les fluctuations de revenus, et des événements externes (par exemple, un dépôt de bilan). Cela permet aux huissiers de concentrer leurs efforts sur les dossiers prioritaires et de maximiser les chances de recouvrement.
  • Utilisation de modèles pour la rédaction d'actes : recourir à des plateformes d'IA pour générer des courriers standards, tout en permettant des modifications adaptées au contexte spécifique de chaque cas. Par exemple, l'IA peut intégrer des éléments spécifiques à chaque débiteur (détail de la créance, échéancier négocié) afin de rendre le message plus pertinent. Cette capacité d'adaptation améliore la communication et réduit les risques de malentendus, tout en augmentant l'efficacité du processus de signification.
  • Solutions de paiement numériques : l'intégration de solutions de paiement numériques directement dans les procédures d'exécution pourrait faciliter le règlement des dettes. Les débiteurs pourraient bénéficier de diverses options de paiement, comme les paiements instantanés ou les plans de paiement échelonnés, favorisant ainsi un règlement plus rapide et plus simple.

B. Pratiques à éviter et dangers

  • Automatisation aveugle de procédures complexes sans validation humaine : ne jamais utiliser un système d'IA pour prendre une décision importante finale sans validation humaine. Automatiser des procédures nécessitant une analyse nuancée est risqué, car l'IA, malgré ses capacités, peut ne pas saisir la complexité des cas individuels.  L'IA pourrait, par exemple, décider de procéder à une vente forcée sans prendre en compte des circonstances particulières, comme un débiteur en train de négocier une solution de paiement amiable. Cela pourrait mener à une liquidation prématurée des biens, entraînant des pertes inutiles pour toutes les parties concernées. Les erreurs ou biais algorithmiques peuvent conduire à des décisions inappropriées. De plus, il est essentiel de vérifier que l'IA ne prenne pas de décisions fondées sur des données incomplètes ou dépassées, ce qui fausserait l'analyse du contexte. La supervision humaine est indispensable pour éviter de telles dérives.
  • Traitement automatique de données sensibles sans contrôle : la vérification humaine des données traitées par l'IA est cruciale pour éviter des violations de la confidentialité ou des erreurs de traitement. Un algorithme mal calibré pourrait divulguer des informations sensibles, surtout si les données ne sont pas correctement anonymisées, entraînant des risques de violations du Règlement Général sur la Protection des Données (RGPD). 

  • Biais inhérents dans les données de formation IA : l'IA dépend des données sur lesquelles elle est formée. Si ces ensembles de données comportent des biais, l'IA les reproduira. Cela pourrait entraîner des discriminations fondées sur des critères tels que le genre, l'origine ethnique ou la situation économique. Par exemple, si les données de formation IA contiennent une surreprésentation de situations dans lesquelles des débiteurs d'un certain profil ont souvent failli à leurs engagements, l'algorithme pourrait injustement refuser un plan de paiement à une personne répondant à ce profil, même si elle est en mesure de s'acquitter de sa dette. De plus, l'IA pourrait cibler de manière disproportionnée des débiteurs provenant de quartiers sensibles ou appartenant à une certaine ethnie, accentuant ainsi les inégalités sociales et contribuant à des pratiques de recouvrement injustes.
  • Erreurs systémiques amplifiées : une erreur dans la conception de l'algorithme ou une donnée incorrecte peut entraîner une amplification systématique des erreurs. Contrairement à une erreur humaine qui est souvent localisée, une erreur dans un système d'IA peut se propager rapidement et affecter des centaines, voire des milliers de cas, avant même d'être détectée.
  • Limites dans la prise en compte de l'évolution du contexte juridique : le droit est en constante évolution, et une IA formée sur des données anciennes pourrait ne pas intégrer les derniers changements législatifs ou juridiques. Cette incapacité à s'adapter rapidement au cadre légal peut entraîner des décisions qui ne sont plus conformes aux lois actuelles, causant des problèmes légaux et des préjudices pour les parties concernées.
  • Dépendance technologique excessive : une dépendance excessive aux technologies d'IA peut entraîner une perte des compétences humaines essentielles. Si les professionnels comptent uniquement sur l'IA pour évaluer des dossiers et prendre des décisions, leur expertise risque de se détériorer, les rendant vulnérables lorsque la technologie présente des failles ou est inaccessible. Une telle situation pourrait gravement affecter la capacité de l'étude à fonctionner correctement sans l'assistance de ces outils.

VI. Perspectives : Un futur numérique pour les voies d'exécution

A. Blockchain et « smart contracts »

La blockchain pourrait apporter plus de transparence et de sécurité dans l'exécution des obligations. Cette technologie permet de conserver un registre distribué et immuable de toutes les transactions et actions entreprises, ce qui renforce la confiance des parties concernées. 

Les « smart contracts », quant à eux, sont des programmes qui s'exécutent automatiquement lorsque certaines conditions prédéfinies sont remplies. Ils pourraient considérablement simplifier les procédures d'exécution en automatisant certaines tâches, telles que le transfert de fonds ou la libération de garanties, une fois qu'un débiteur a effectué un paiement. Cela réduirait l'intervention humaine nécessaire et minimiserait le risque d'erreurs. Par exemple, un « smart contract » pourrait être utilisé pour gérer un plan de paiement échelonné, où chaque paiement déclencherait automatiquement l'émission d'une confirmation ou la libération progressive d'une garantie. Cette automatisation pourrait réduire les délais de traitement et garantir que les obligations sont respectées de manière précise et rapide.

B. Résolution des conflits avec l'IA

L'IA pourrait assister à la résolution des litiges en proposant des solutions basées sur l'analyse de cas similaires, facilitant ainsi la médiation et la négociation. Grâce à l'analyse de données massives et à l'apprentissage automatique, l'IA pourrait identifier des schémas et des précédents qui ont conduit à des solutions amiables dans le passé, et proposer des options similaires aux parties impliquées. 

Par exemple, une IA pourrait analyser des milliers de décisions passées concernant des plans de paiement pour déterminer les propositions les plus susceptibles d'être acceptées par les débiteurs et les créanciers dans des situations similaires. Cela favoriserait des solutions équilibrées et augmenterait les chances de résolution à l'amiable, évitant ainsi des procédures judiciaires longues et coûteuses ou des procédures d'exécution forcée inappropriées.

L'IA pourrait également être utilisée pour créer des plateformes de résolution de litiges en ligne, où les parties pourraient interagir de manière virtuelle, recevoir des recommandations en temps réel, et parvenir à un accord sans avoir à se déplacer. Ces plateformes automatisées pourraient non seulement rendre le processus plus accessible, mais aussi permettre un règlement plus rapide des litiges, réduisant ainsi la charge des tribunaux et des huissiers de justice.

C. L’intelligence artificielle pour l'inventaire et la prisée des biens saisis

L'IA pourrait révolutionner la manière dont les huissiers de justice réalisent l'inventaire et l'évaluation des biens lors d'une saisie. 

Concrètement, un huissier de justice pourrait filmer la pièce où se trouvent les biens à saisir, et l'IA analyserait les images pour identifier automatiquement les objets. Ce système serait capable de distinguer les biens saisissables, comme définis par la loi, des biens insaisissables (objets d'usage quotidien ou sans valeur vénale). L'IA rédigerait ensuite un inventaire complet et détaillé, en classant les biens selon leur catégorie, leur nature, et leur état.

En parallèle, l'IA pourrait estimer la valeur vénale des biens en s'appuyant sur des données historiques de ventes aux enchères ou des bases de données du marché. Par exemple, l'IA pourrait identifier un appareil électronique ou un meuble de valeur, et en proposer une estimation basée sur des ventes récentes de biens similaires. Cette automatisation réduirait non seulement le temps consacré à la prisée des biens, mais améliorerait aussi la précision des évaluations.

D. Assistance linguistique par l'IA

Aujourd'hui, les huissiers de justice sont souvent confrontés à des justiciables issus de diverses nationalités, ne maîtrisant pas nécessairement le français, que ce soit à l'oral ou à l'écrit. Cette barrière linguistique peut compliquer la communication et la compréhension des procédures d'exécution, entraînant des retards ou des malentendus dans le processus.

L'IA pourrait jouer un rôle déterminant pour surmonter ces obstacles linguistiques. Grâce aux capacités de traduction en temps réel et à la reconnaissance vocale, l'IA pourrait aider les huissiers à interagir plus efficacement avec des justiciables qui ne parlent pas un lange compris par l’huissier.

L'IA pourrait être utilisée pour traduire instantanément les documents juridiques dans la langue du justiciable, tout en conservant les nuances juridiques nécessaires. Cela permettrait de fournir des informations claires et compréhensibles sur les procédures en cours, garantissant ainsi le respect du droit à l'information.

L’IA pourrait également assister les huissiers dans les échanges verbaux avec les justiciables. L'IA pourrait retranscrire et traduire instantanément les dialogues, facilitant ainsi une communication fluide lors d'une saisie ou d'une explication de procédure, que ce soit en face-à-face ou à distance.

VII. Conclusion

L'intégration de l'IA dans les voies d'exécution offre des perspectives prometteuses, allant de l'automatisation des tâches répétitives à une prise de décision plus éclairée. Cependant, cette évolution technologique doit s'accompagner d'une vigilance accrue sur les questions éthiques, la protection des données et la lutte contre les biais algorithmiques. Les huissiers ont la responsabilité de s'adapter à ces changements tout en préservant leur mission fondamentale : garantir la justice et la sécurité juridique des citoyens.

Avec une approche équilibrée entre innovation et respect des principes juridiques, les huissiers peuvent non seulement s'adapter aux nouvelles technologies de l’intelligence artificielle, mais aussi renforcer leur rôle en tant que piliers humains de la justice dans la société de demain. Les bénéfices apportés par l'IA ne doivent jamais faire oublier l'importance du discernement humain, garant de l'équité et de la justice.

 

[1] Règlement (UE) n° 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle [LXB= L1054MND].

[2] Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle et les droits de l’Homme, la démocratie et l’État de droit [en ligne].

newsid:491192

Voies d'exécution

[Actes de colloques] Défis et opportunités de l'intégration de l'IA dans les procès et l’exécution forcée : devrions-nous interdire ou réglementer ?

Lecture: 20 min

N1233B33

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491233
Copier

par Ana Arabuli (GO), Responsable du développement des relations internationales du Bureau national de l’exécution de Géorgie

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

L'intelligence artificielle (IA) transforme rapidement les systèmes judiciaires et d’exécution forcée dans le monde entier, offrant à la fois des opportunités sans précédent et des défis importants. La question de savoir s'il faut interdire ou réglementer l'IA dans ces contextes est pressante, d'autant plus que les progrès technologiques dépassent les cadres réglementaires. Cet article explore l'utilisation de l'intelligence artificielle (IA) dans les procédures de procès et d'exécution, en mettant l'accent sur l'importance de soutenir les autorités judiciaires et d’exécution forcée plutôt que de les remplacer. S'appuyant sur la signature récente de la Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle, les droits de l'homme, la démocratie et l'État de droit, cette analyse souligne comment l'IA, lorsqu'elle est correctement réglementée, peut faire respecter les principes d'équité, de transparence et de responsabilité.

I. Le rôle de l'IA dans les systèmes d’exécution forcée

L'utilisation de l'intelligence artificielle (IA) dans l'exécution des jugements civils et commerciaux n'en est qu'à ses débuts. Traditionnellement, l'exécution des jugements repose en grande partie sur le pouvoir discrétionnaire de l'homme et sur la capacité d'interpréter des situations complexes et contextuelles. Les agents d'exécution, souvent appelés le « bras exécutif » du pouvoir judiciaire, jouent un rôle essentiel dans le respect de l'État de droit en veillant à ce que les décisions de justice soient exécutées efficacement. Ce rôle exige non seulement une compréhension des principes juridiques, mais aussi la capacité de naviguer dans les dimensions humaines de chaque dossier, comme négocier avec les débiteurs, faire preuve d'empathie et tenir compte des répercussions sociales et économiques des mesures d'exécution. 

À mesure que la technologie de l'IA progresse, elle pourrait aider à bon nombre de ces fonctions exercées par les huissiers de justice.  Par exemple, l'IA peut analyser rapidement de grandes quantités de données pour trouver des actifs qui pourraient être utilisés pour payer des dettes, prédire comment un débiteur pourrait se comporter à l'avenir et même automatiser des tâches de routine telles que l'envoi d'avis. Comme le soulignent les Nations Unies, « le potentiel de l'IA pour traiter et analyser les mégadonnées en temps réel offre des opportunités importantes pour une gouvernance plus efficace » (UNESCO, 2019). Ces outils pourraient accélérer et réduire les coûts d’exécution forcée. Cependant, l'introduction de l'IA dans ce processus soulève également d'importantes questions sur l'équité, la transparence et la responsabilité.

L'intelligence artificielle (IA) devrait servir d'outil pour aider, et non remplacer, les autorités judiciaires et les forces de l'ordre. Sa fonction principale est de réduire les charges de travail administratives, permettant aux professionnels de se concentrer sur les tâches qui nécessitent une perspicacité humaine et un jugement complexe. L'intégration de l'IA dans le système d’exécution forcée a été délibérément limitée aux fonctions de soutien, afin de s'assurer que les agents d’exécution humains conservent le contrôle des processus décisionnels critiques. Cette approche s'aligne sur des perspectives internationales plus larges, telles que celles décrites dans la Convention-cadre du Conseil de l'Europe, qui souligne l'importance de la surveillance humaine dans les systèmes d'IA qui affectent les droits fondamentaux.

II. L'intersection de l'IA et des droits de la personne dans les pratiques d’exécution forcée

L'une des principales préoccupations entourant l'utilisation de l'intelligence artificielle (IA) dans d’exécution forcée est l'impact potentiel sur les droits de la personne. L’exécution forcée, en particulier lorsqu'il s'agit de questions sensibles telles que les droits de propriété, la vie privée ou même la liberté, doit être examinée attentivement lorsque l'IA est impliquée pour s'assurer que les droits individuels ne sont pas violés.

Le principe de l’exécution forcée est la pierre angulaire de tout système juridique qui aspire à être juste et équitable. Il veille à ce que toutes les personnes soient traitées équitablement par le système judiciaire, et à ce qu'elles aient la possibilité de présenter leur cas et de contester les décisions qui touchent leurs droits. L'intégration de l'IA dans les processus d’exécution forcée soulève des inquiétudes quant à la façon dont ces principes seront respectés dans un système où les décisions sont de plus en plus dictées par des algorithmes qui traitent les données selon des règles prédéfinies. Ces algorithmes n'ont souvent pas la capacité de saisir les complexités des cas individuels. Cette restriction soulève d'importantes préoccupations quant à l'équité des décisions exécutée, surtout lorsque ces décisions peuvent entraîner des répercussions importantes et immédiates sur la vie des personnes, comme la saisie de biens ou le gel d'actifs.

Bien que l'IA puisse améliorer l'efficacité et soutenir les responsables de l’exécution forcée, il est essentiel de se rappeler qu'elle ne peut pas remplacer l'empathie et la compréhension contextuelle que les agents humains apportent à leur travail. En privilégiant la justice et l'équité, nous pouvons faire en sorte que l'IA serve d'outil de justice plutôt que de source de nouvelles inégalités.  Pour garantir l'équité, il faut de la transparence. Les parties doivent avoir le droit de comprendre le fondement des décisions qui touchent leur vie et de contester ces décisions si elles estiment qu'elles sont injustes. Cela nécessite des mécanismes réglementaires complets et la capacité d'auditer les systèmes d'IA pour éviter des résultats arbitraires ou discriminatoires.

L 'utilisation de l'IA dans l’exécution forcée met également en évidence la protection de la vie privée et des données comme un pilier essentiel qui doit être protégé. Les systèmes d'IA nécessitent généralement l'accès à de grandes quantités de données pour fonctionner efficacement, y compris des informations personnelles et financières. La collecte, le stockage et le traitement de ces données doivent être effectués conformément aux lois sur la protection des données afin d'éviter toute utilisation abusive et de protéger la vie privée des individus.

Le Règlement général sur la protection des données (RGPD) énonce des principes clairs pour le traitement des données personnelles. Conformément au Règlement général sur la protection des données (RGPD), « les données personnelles doivent être traitées de manière licite, loyale et transparente » (article 5 du RGPD). Cependant, l'application de ces principes dans les systèmes d’exécution forcée pilotés par l'IA peut s'avérer complexe.

Il est essentiel d'assurer le respect de ces principes de protection des données pour éviter les abus potentiels et maintenir la confiance du public dans les systèmes d’exécution forcée basés sur l'IA. L'intelligence artificielle (IA) doit être conçue non seulement pour respecter la vie privée, mais aussi pour minimiser les risques tels que les violations de données ou l'accès non autorisé à des informations sensibles. Des audits réguliers, une réglementation minutieuse et une surveillance stricte sont nécessaires pour garantir que les données personnelles sont traitées de manière appropriée tout au long du cycle de vie de l'IA. En outre, les institutions devraient être tenues d'informer leurs citoyens de l'utilisation des systèmes d'IA dans les procédures judiciaires et d’exécution forcée qui aboutissent à des décisions juridiques contraignantes, en garantissant la transparence sur la manière dont leurs données sont utilisées et en offrant aux individus des moyens clairs de contester les décisions ou d'agir en cas de violation de leurs droits. Il est essentiel de trouver un équilibre entre l'innovation et la confidentialité pour que les systèmes d'IA fonctionnent de manière éthique dans des cadres juridiques.

III. Le rôle de l'IA dans le renforcement ou l'atteinte aux droits de l'Homme

L'intelligence artificielle a le potentiel de renforcer les droits de l'homme dans les procédures d’exécution forcée en améliorant l'accès à la justice et l'efficacité du processus judiciaire. Cependant, son application doit être soigneusement gérée pour éviter des conséquences involontaires.

  • Améliorer l'accès à la justice 

Dans de nombreuses juridictions, l'exécution des jugements civils et commerciaux est entravée par des retards, des inefficacités et des coûts élevés. Ces défis créent des obstacles importants pour les parties, en particulier celles qui ont des ressources financières limitées, qui peuvent avoir du mal à faire respecter leurs droits légaux.

L'IA offre la possibilité de rationaliser les processus d'exécution, en réduisant le temps et les coûts associés à l'exécution des jugements. Par exemple, des outils tels que les logiciels d'identification d'actifs pilotés par l'IA peuvent automatiser des tâches de routine telles que la localisation des actifs ou le calcul des intérêts sur les paiements en retard. Cela permet non seulement aux agents d'exécution de se concentrer sur des aspects plus complexes de leur travail, mais aussi de résoudre plus rapidement et plus efficacement les litiges, ce qui profite à la fois aux créanciers et aux débiteurs.

De plus, l'IA pourrait améliorer l'accès à la justice pour les personnes qui, autrement, n'auraient peut-être pas les moyens de se payer une représentation juridique. Les outils pilotés par l'IA, tels que les assistants virtuels ou les plateformes en ligne conviviales, fournissent des ressources essentielles, offrant des informations essentielles sur les droits et les options dans le cadre du processus d’exécution. Ces technologies peuvent simplifier des concepts juridiques complexes liés aux mesures d’exécution forcée, ce qui les rend plus accessibles aux personnes sans formation juridique. En fournissant des conseils personnalisés, l'IA permet aux individus de défendre efficacement leurs propres intérêts, en s'assurant qu'ils comprennent leurs droits dans les situations d’exécution forcée et qu'ils peuvent naviguer dans le système avec une plus grande confiance. Cette capacité est particulièrement cruciale lorsque des individus sont confrontés à des actions telles que des saisies d'actifs ou des processus d'expulsion.

En fin de compte, l'intelligence artificielle (IA) favorise non seulement l'équité et la transparence, mais favorise également un environnement plus équitable où tous les individus ont la possibilité de faire valoir leurs droits et de demander des comptes aux organismes d’exécution forcée impliqués dans leurs affaires. En prônant l'intégration responsable de l'IA, nous pouvons travailler à l'élaboration d'un système juridique à la fois efficace et juste.

  • Le risque de déshumanisation 

Malgré les avantages potentiels de l'IA dans l’exécution forcée, il existe un risque important que ces technologies entraînent la déshumanisation du processus judiciaire. L’exécution forcée n'est pas simplement un exercice technique ; Il faut trouver un équilibre entre les intérêts des créanciers et des débiteurs tout en tenant compte du contexte social et économique plus large entourant les mesures d'exécution. Bien que l'IA possède des capacités remarquables, elle ne peut pas comprendre pleinement les complexités du comportement humain et des relations sociales.

Dans les procédures d'exécution, cela signifie que si l'IA peut aider à l'exécution des jugements, elle ne doit pas remplacer le jugement humain ou la compassion. Par exemple, un système d'IA peut identifier les actifs à saisir plus efficacement qu'un agent d'exécution, mais il peut ne pas être en mesure de déterminer si de telles actions causeraient des difficultés au débiteur ou à sa famille. Cela pourrait conduire à des résultats qui, bien que juridiquement corrects, sont socialement ou moralement discutables.

Pour atténuer ce risque, il est essentiel de trouver un équilibre entre l'IA et la participation humaine dans le processus l’exécution forcée. Il est essentiel de disposer d'un cadre réglementaire complet qui s'aligne sur le développement rapide des systèmes d'IA. L'IA devrait être considérée comme un outil d'aide aux agents l’exécution forcée plutôt que comme un substitut au jugement humain.

IV. Cadres réglementaires et éthiques

À mesure que la technologie de l'intelligence artificielle (IA) progresse, le cadre réglementaire régissant son utilisation dans le cadre de l’exécution forcée doit également s'adapter. Les normes juridiques et éthiques existantes peuvent ne pas répondre adéquatement aux défis posés par l'IA, ce qui nécessite des approches novatrices en matière de réglementation et de surveillance. Un cadre réglementaire complet est essentiel pour garantir que les technologies d'IA sont utilisées d'une manière qui respecte les droits de l'homme et la primauté du droit.

  • Mettre l'accent sur la réglementation, pas sur les interdictions

Le débat sur la question de savoir si l'IA doit être interdite ou réglementée est crucial. Cependant, des interdictions complètes entraveraient le progrès technologique et les gains d'efficacité que l'IA peut apporter aux systèmes l’exécution forcée. La réglementation est la solution évidente, car elle permet une utilisation responsable de l'IA tout en atténuant les risques. Une surveillance efficace nécessite une approche inclusive qui intègre une expertise juridique, technique et éthique. Les organismes de réglementation doivent établir des lignes directrices claires pour l'utilisation de l'IA, y compris des normes de protection des données, de transparence algorithmique et d'équité, élaborées en consultation avec un large éventail de parties prenantes : professionnels du droit, technologues, défenseurs des droits de la personne et public.

  • La nécessité d'une surveillance stricte

La mise en œuvre de l'intelligence artificielle (IA) dans l’exécution forcée doit s'accompagner de mécanismes de surveillance complets pour prévenir les violations des droits humains et faire respecter l'État de droit. Il s'agit notamment d'établir un ensemble de lignes directrices claires, d'assurer la transparence de la prise de décision et d'assurer la responsabilisation lorsque les systèmes d'IA produisent des résultats injustes. Il est essentiel de respecter des normes non discriminatoires et éthiques.

  • Une approche équilibrée

Pour s'assurer que l'IA sert le bien public, il est crucial d'évaluer et d'adapter régulièrement ces systèmes, en surveillant leur impact sur les droits de l'homme et l'efficacité des réglementations. L'avenir de l'IA dans l'exécution des jugements civils et commerciaux repose sur la recherche d'un équilibre entre l'innovation et la protection des droits de la personne. Bien que l'IA ait le potentiel d'améliorer les services l’exécution forcée en les rendant plus efficaces et plus accessibles, ce potentiel ne peut se réaliser que si sa mise en œuvre respecte la dignité humaine, garantit l'équité et fait respecter la primauté du droit.

V. La Convention-cadre du Conseil de l'Europe sur l'IA et les droits de l'Homme : une étape réglementaire

La Convention-cadre du Conseil de l'Europe sur l'IA et les droits de l'homme, la démocratie et l'État de droit (STCE n° 225) constitue une avancée significative dans la gouvernance de l'intelligence artificielle. Ce traité pionnier, élaboré en réponse aux progrès rapides de la technologie de l'IA, est le premier instrument international juridiquement contraignant visant à garantir que les systèmes d'IA s'alignent sur les normes en matière de droits de l'homme. Ouverte à la signature lors d'une conférence des ministres de la Justice du Conseil de l'Europe à Vilnius, la Convention représente une étape monumentale vers l'établissement de lignes directrices éthiques pour le déploiement de l'IA dans les États membres.

Signée par des pays tels que l'Andorre, la Géorgie, l'Islande, la Norvège et le Royaume-Uni, ainsi que par Israël, les États-Unis et l'Union européenne, la Convention vise à mettre en œuvre des applications de l'IA guidées par des principes essentiels. Ces principes directeurs mettent l'accent sur la transparence, qui englobe l'accessibilité et l'explicabilité, la justice et l'équité, y compris la non-discrimination, la responsabilité humaine dans les décisions et la sécurité. En outre, la Convention souligne l'importance de la vie privée et de la protection des données. Collectivement, ces lignes directrices fournissent un cadre essentiel pour l'utilisation responsable de l'IA dans les systèmes judiciaires et d’exécution forcée, en veillant à ce que la technologie renforce l'État de droit plutôt que de le compromettre.

La signature de cette convention marque un tournant pour la Géorgie, car elle établit une base juridique inclusive pour réglementer l'IA de manière à favoriser l'innovation tout en protégeant les droits de l'homme. En imposant des évaluations régulières de l'impact sur les droits de l'homme et en mettant l'accent sur la transparence et la responsabilité dans les applications de l'IA, la Convention préserve les valeurs démocratiques. Dans le contexte de l’exécution forcée, il s'agit de veiller à ce que l'IA ne discrimine pas ou n'enfreint pas les droits des justiciables, en particulier lorsqu'il s'agit de données personnelles sensibles. La décision de la Géorgie de signer ce traité souligne l'engagement du pays à intégrer ces principes dans ses pratiques judiciaires et d’exécution forcée, renforçant ainsi l'importance mondiale de l'application éthique de l'IA et créant un précédent que d'autres pays pourraient suivre.

VI. Transformation numérique de l’exécution forcée en Géorgie

La Géorgie est fermement résolue à intégrer l'intelligence artificielle (IA) dans son système judiciaire, en s'alignant sur les tendances mondiales en matière de transformation numérique et de gouvernance. En 2020, la Géorgie a signé la Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle dans les systèmes judiciaires aux côtés de la France, de l'Estonie et de l'Allemagne, marquant ainsi une étape importante vers l'intégration responsable de l'IA dans ses systèmes judiciaires tout en mettant l'accent sur les droits de l'homme, la transparence et la responsabilité.

Au cœur de cet effort se trouve le National Bureau of Enforcement (NBE), qui a dirigé la modernisation des processus d’exécution forcée au moyen d'outils numériques qui améliorent l'efficacité, la transparence et l'équité. La technologie numérique est devenue une force motrice dans l'évolution du NBE, fournissant aux agents d’exécution forcée des outils innovants et des flux de travail optimisés. Des innovations telles que les systèmes numériques de gestion des cas et les assistants numériques pilotés par l'IA ont considérablement amélioré l'efficacité et les taux de réussite des activités d’exécution forcée.

En adoptant la transformation numérique, le NBE a amélioré son efficacité opérationnelle et renforcé la conformité, la transparence et la sécurité de ses procédures. Ce virage technologique permet au NBE de s'adapter rapidement aux nouveaux défis, de favoriser l'innovation continue et d'améliorer l'accès à la justice pour tous les citoyens.

L'une des principales innovations du NBE est l'introduction d'un assistant numérique, un outil automatisé conçu pour simplifier les mesures d’exécution forcée. Ce système accomplit des tâches selon une logique préétablie, en adhérant aux normes juridiques tout en donnant la priorité aux considérations relatives aux droits de l'homme. L'algorithme de l'assistant prend en compte des facteurs tels que le statut social du débiteur et le respect de ses obligations, y compris les cas de décès, ce qui permet de prendre des décisions procédurales éclairées.

Les avantages de l'assistant numérique sont nombreux. Il optimise le temps et les ressources humaines, réduit les erreurs associées à la prise de décision émotionnelle et renforce la cybersécurité en respectant les principes de confidentialité, d'intégrité, de disponibilité et de protection des données. En intégrant l'IA dans ses processus d’exécution forcée, le NBE établit une norme élevée pour l'avenir de l’exécution forcée en Géorgie, démontrant ainsi son engagement à construire un système judiciaire efficace, sécurisé et accessible à tous les citoyens.

Conclusion

L'intégration des outils numériques permet non seulement d'améliorer les capacités opérationnelles, mais aussi de renforcer la confiance du public dans le processus judiciaire. Alors que les progrès technologiques continuent de remodeler le paysage juridique, il est impératif de se concentrer sur la réglementation plutôt que sur les interdictions. La Convention-cadre du Conseil de l'Europe sur l'IA et les droits de l'homme, la démocratie et l'État de droit (STCE n° 225) crée un précédent important pour l'utilisation responsable de l'IA, en veillant à ce que la technologie serve le bien public sans compromettre les principes fondamentaux de justice. 

Il est essentiel que l'intelligence artificielle (IA) soit considérée comme un outil d'assistance aux autorités judiciaires et d’exécution forcée, et non comme un remplacement, en maintenant l'élément humain essentiel dans la poursuite de la justice. En soutenant les responsables de l’exécution forcée et en garantissant la transparence, la responsabilité et l'équité, l'IA peut être intégrée de manière à renforcer plutôt qu'à saper l'État de droit. En adoptant une approche équilibrée, nous pouvons exploiter la puissance de l'IA pour améliorer les services judiciaires et d'exécution de la loi tout en préservant les droits et la dignité de tous les plaideurs.

newsid:491233

Voies d'exécution

[Actes de colloques] Défis et possibilités de l'intégration de l'IA dans les essais et l’exécution forcée : devrions-nous interdire ou réglementer ?

Lecture: 16 min

N1234B34

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491234
Copier

par Paulo Duarte Pinto (PT), OSAE

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

« L'IA n'a pas besoin d'être méchante pour détruire l'humanité – si l'IA a un objectif et que l'humanité se met en travers de son chemin, elle détruira l'humanité comme une évidence sans même y penser, sans rancune. » Elon Musk.

Lorsque j'ai commencé à faire des recherches pour cet article, je suis tombé sur l'avis d'un chercheur [1] de l'École d'ingénierie de l'université du Minho au Portugal, qui a résumé son discours en marge du « Colloque promu par la Cour suprême de justice portugaise, sur le thème « Tribunaux et intelligence artificielle - Une odyssée au 21ème siècle ». Commence par dire que l'Intelligence Artificielle (IA) est sur une voie de non-retour, la loi jouant un rôle fondamental dans sa conception, sa régulation et son utilisation. Il affirme également que la vision par ordinateur surpasse la vision humaine et que, dans la traduction linguistique, l'écriture et la parole, l'IA est très proche du niveau humain. Il prédit également que nous entrons dans une ère où la remise en question d'une « machine » pour obtenir des informations et des connaissances remplacera largement la nécessité de les programmer.

Depuis l'antiquité, il y a eu de nombreuses références à des intelligences artificielles archaïques à travers l'histoire, dont le concept largement philosophique s'est surtout consolidé dans la seconde moitié du XXe siècle, par la main de brillants théoriciens des mathématiques, qui se sont montrés très en avance sur leur temps en termes de développements récents dans le domaine de l'informatique.

Toujours dans les années 1950, le non moins brillant professeur de biochimie et auteur de science-fiction Isaac Asimov a écrit les trois lois de la robotique : la première, affirmant qu'un robot ne peut jamais nuire à un être humain, ou permettre à un être humain d'être blessé par l'inaction ; la seconde, affirmant qu'un robot doit toujours obéir aux ordres donnés par un être humain, à moins que ces ordres ne soient en conflit avec la première des Lois ; et la troisième, obligeant le robot à protéger son existence, à condition que cette protection n'entre pas en conflit avec la première et la deuxième des Lois. Plus tard, Asimov a ajouté la loi « Zéro », qui devait précéder les trois lois précédentes, dans lesquelles un robot ne pouvait causer aucun mal à l'humanité, ou permettre à l'humanité de se causer du mal à elle-même, en raison de l'inaction du robot.

Toutes ces lois ont par la suite influencé l'éthique de l'intelligence artificielle, en tant qu'ensemble de principes et de valeurs qui guident la création, l'application et l'installation de l'intelligence artificielle, en promouvant la responsabilité, la justice, la sécurité et la transparence. Garantir l'équité dans les algorithmes et ne pas perpétuer les préjugés et la discrimination est l'un des défis les plus importants dans ce domaine.

La recommandation de l'UNESCO [2] sur l'éthique de l'intelligence artificielle vise à fournir un cadre pour garantir le fonctionnement des systèmes d'intelligence artificielle au profit de l'humanité, des individus, des sociétés, de l'environnement et des écosystèmes, en plus de prévenir d'éventuels dommages, ainsi que de promouvoir l'utilisation pacifique des systèmes d'intelligence artificielle.

À ce stade, nous aimerions souligner le respect, la promotion et la protection des droits de l'Homme et des libertés fondamentales, de la dignité humaine, de l'égalité, de l'environnement et de la diversité culturelle, parmi d'autres droits inviolables, qui devraient guider éthiquement l'intelligence artificielle.

À côté de ces droits inviolables, il y a aussi l'interdiction de l'objectivation de l'être humain par l'Intelligence Artificielle, qui doit être renforcée dans les nouvelles technologies et les nouveaux processus introduits, pour respecter et défendre les droits de l'homme.

Mais qu'est-ce que l'intelligence artificielle ?

Pour nous, l'intelligence artificielle fait référence à l'ensemble des données et des algorithmes, générés par la modélisation mathématique, dans le but de traiter des informations dans un but spécifique.

Au sens figuré, les algorithmes créent, décident et suivent des itinéraires numériques, définissant ainsi les parcours de tous les participants au monde numérique. Cela se fait en collectant, comparant des calculs et des actions automatisées, dans certains cas sur la base de spécifications préétablies, et dans d'autres sur la base d'autorisations d'actions dérivées de la capacité d'auto-apprentissage du système lui-même, dans ce qui est considéré comme l'apprentissage automatique, l'une des méthodes les plus utilisées, en reconnaissant que tout logiciel utilisant cette méthode sera plus autonome que les programmes codés manuellement et à l'avance. Le système est ainsi capable d'identifier des modèles et de faire des prédictions et, de plus, si l'ensemble des données est de bonne qualité, les performances peuvent dépasser celles des tâches effectuées par l'homme.

Il est donc important, à ce stade, de créer les principes et les barrières éthiques nécessaires au développement de l'Intelligence Artificielle, en vue de remplir la finalité pour laquelle elle a été créée, notamment en l'adaptant à son intervention dans les actions d'exécution, permettant une cohabitation - peut-être a priori difficile - avec la protection des données personnelles,  d'une part, et d'autre part, tout en garantissant le caractère personnel essentiel de l'approche de l'huissier de justice vis-à-vis des parties.

Principes qui devraient guider l'éthique de l'Intelligence Artificielle

I. Proportionnalité et prévention des préjudices

Bien que l'intelligence artificielle ne garantisse pas automatiquement le bien-être des êtres humains, les processus liés au cycle de vie des systèmes d'intelligence artificielle ne doivent être effectués que pendant la période nécessaire pour atteindre des objectifs ou des buts valides et appropriés au contexte dans lequel ils sont réalisés.

En cas de préjudice causé aux personnes, aux droits de l'homme ou aux communautés, il est nécessaire de prendre des mesures préventives contre ce dommage, sous l'égide de l'inviolabilité des droits fondamentaux, en évaluant les risques et en prenant les mesures nécessaires, en laissant toujours la décision finale à l'intervention humaine.

II. Sûreté et sécurité

Il est crucial de prévenir et de résoudre les dommages indésirables et les vulnérabilités aux cyberattaques au cours du cycle de vie des systèmes d'intelligence artificielle afin de garantir la sûreté et la sécurité humaines, environnementales et des écosystèmes.

L'énonciation de normes durables pour protéger la confidentialité des données d'accès, qui améliorent le développement et la validation de modèles d'intelligence artificielle qui utilisent des données fiables, conduira à des processus plus sûrs.

III. Justice et non-discrimination

Les développeurs d'intelligence artificielle ont la responsabilité de promouvoir la justice sociale, en garantissant l'égalité et l'absence de toute discrimination, ce qui implique une stratégie inclusive pour garantir que les avantages des technologies d'intelligence artificielle sont accessibles à tous, en tenant compte des besoins des différents groupes et minorités.

Que les avantages des technologies d'intelligence artificielle soient accessibles à tous, en tenant compte des besoins des différents groupes et minorités, et en veillant à ce que toutes les communautés aient un accès inclusif aux systèmes d'intelligence artificielle, dans le respect du multilinguisme et de la diversité culturelle.

Tout doit également être mis en œuvre pour réduire au minimum et empêcher la poursuite d'applications et de résultats discriminatoires ou biaisés dans les systèmes d'IA, lorsqu'ils se produisent, afin de garantir l'équité de ces systèmes tout au long de leur cycle de vie, et il est essentiel de lutter contre les discriminations et les préjugés fondés sur les algorithmes.

IV. Durabilité

La mise en œuvre des technologies d'intelligence artificielle peut avoir un impact positif ou négatif sur les objectifs de durabilité, selon la manière dont elles sont mises en œuvre, il est donc crucial de surveiller en permanence les effets des technologies d'intelligence artificielle dans divers secteurs de la durabilité.

V. Droit à la vie privée et à la protection des données

Le droit à la vie privée et à la protection des données est essentiel pour garantir la dignité et l'indépendance des individus et doit être sauvegardé, protégé et encouragé tout au long du processus de création de systèmes d'intelligence artificielle. Il est essentiel que les informations soient recueillies, utilisées, partagées, stockées et éliminées conformément au droit international. Il est essentiel de définir des normes et des procédures de bonne gouvernance, adaptées à la protection des données, tenant compte des différents intérêts, protégées par les systèmes juridiques et garanties tout au long du cycle de vie des systèmes d'Intelligence Artificielle. Les principes et normes internationaux relatifs à la collecte, à l'utilisation et à la divulgation des données personnelles doivent être appliqués aux normes de protection des données, en plus de garantir les droits des personnes concernées, avec une base juridique valable et un objectif légitime. L'analyse de l'impact des algorithmes sur la vie privée doit tenir compte des éléments sociaux et éthiques, en encourageant une perspective innovante de la vie privée dans la conception. Les développeurs d'intelligence artificielle doivent garantir la protection des informations personnelles tout au long du cycle de vie des systèmes.

VI. Supervision humaine et détermination

La supervision humaine et la détermination sont essentielles. Je dirais sine qua non. Il est crucial que la possibilité d'une responsabilité éthique et juridique soit garantie à toutes les étapes des systèmes d'intelligence artificielle, ainsi que dans les procédures judiciaires impliquant des personnes ou des entités liées à ces systèmes. La surveillance humaine peut inclure à la fois une surveillance individuelle et une surveillance publique inclusive, le cas échéant. Finalement, les gens peuvent choisir de faire confiance aux systèmes d'intelligence artificielle en raison de leur efficacité, cependant, la responsabilité et la reddition de comptes ultime resteront humaines dans des situations spécifiques. Il est généralement plus avantageux pour les systèmes d'intelligence artificielle de ne pas être responsables de la prise de décisions qui impliquent la vie ou la mort.

VII. Transparence et clarté

La clarté et la compréhension sont essentielles dans les systèmes d'intelligence artificielle pour garantir que les droits de l'homme, les libertés essentielles et les principes éthiques sont respectés, sauvegardés et promus. La transparence est donc cruciale pour le bon fonctionnement des systèmes de responsabilisation, et son manque peut compromettre la possibilité de remettre correctement en question les décisions basées sur les résultats produits par les systèmes d'intelligence artificielle. Il est crucial de s'assurer que son niveau est adapté au contexte et à l'impact, en l'équilibrant avec d'autres principes tels que la confidentialité et la sécurité. Il est essentiel de veiller à ce que les personnes soient pleinement informées des décisions prises à l'aide d'algorithmes d'intelligence artificielle, en particulier si ces décisions ont un impact sur leur sécurité ou leurs droits humains, et qu'elles puissent demander des éclaircissements aux entités responsables. Les acteurs doivent également informer clairement les destinataires de l'utilisation de l'intelligence artificielle, de manière appropriée et au moment opportun.

Dans le contexte des systèmes d'intelligence artificielle, la clarté aide les individus à comprendre comment chaque étape du système est menée, compte tenu du contexte et de la sensibilité du système d'IA, et peut inclure des informations sur les facteurs qui ont une incidence sur une prédiction ou une décision spécifique, ainsi que sur la garantie de garanties appropriées, telles que des actions de sécurité ou de justice, qu'elles soient en place.

VIII. Responsabilité et reddition de comptes

Les développeurs de systèmes d'intelligence artificielle doivent respecter, protéger et encourager les droits de l'homme et les libertés fondamentales. Ils doivent également adhérer à des principes éthiques à toutes les étapes de la vie des systèmes d'intelligence artificielle et attribuer aux responsables des différentes étapes l'obligation morale et la responsabilité des décisions et des actions liées à un système d'intelligence artificielle. Il est nécessaire de mettre en place des mécanismes de suivi, d'évaluation et d'audit pour garantir la redevabilité des systèmes d'Intelligence Artificielle et de leurs conséquences.

IX. Sensibilisation

Il est crucial d'encourager le public à comprendre les technologies d'intelligence artificielle et la valeur des données, des compétences numériques et de la formation à l'éthique de l'IA. 

La formation devrait être dispensée conjointement par diverses organisations, compte tenu de la diversité présente, afin d'assurer la participation du public et de le protéger contre toute influence indue.

X. Gouvernance et collaboration adaptables et multipartites

Lors de l'utilisation des données, il est crucial de respecter le droit international et la souveraineté nationale, en encourageant une gouvernance flexible et une coopération multipartite. Il est crucial d'impliquer diverses parties prenantes tout au long du cycle de vie des systèmes d'intelligence artificielle afin d'assurer une gouvernance inclusive et de distribuer équitablement les avantages, contribuant ainsi à un progrès durable. Les groupes concernés comprennent, sans s'y limiter, les gouvernements, les organisations intergouvernementales, la communauté technique, la société civile, les universitaires et les instituts de recherche, les médias, l'éducation, les autorités politiques et les entreprises du secteur privé.

Défis et opportunités de l'intégration de l'intelligence artificielle dans les mesures d’exécution forcée.

Le travail des agents d'exécution dans le cadre de l'exécution forcée et du recouvrement de créances est inextricablement un travail exercé par des êtres humains et, pour la plupart, par d'autres êtres humains.

Cela signifie-t-il que l'applicabilité de l'intelligence artificielle dans les mesures d’exécution forcée est immédiatement limitée à de simples algorithmes qui, à leur tour, doivent intrinsèquement obéir aux principes discutés ci-dessus, ou l'intelligence artificielle remplacera-t-elle les êtres humains, nous en tant qu'agents d’exécution ou un juge ?

En circonscrivant le champ de notre intervention dans l'action de répression, nous pouvons partir du point relatif où l'Intelligence Artificielle, au sens large du terme, pourrait remplacer un Agent d'exécution dans son travail.

La technologie s'est avérée être un outil prometteur pour soutenir l'application de la justice, en simplifiant et en accélérant divers processus qui étaient auparavant menés mécaniquement par des êtres humains. De même, la numérisation et la dématérialisation ont permis de les appliquer plus rapidement et plus efficacement. Parallèlement à cela, l'intelligence artificielle va plus loin, étant capable d'effectuer des tâches encore plus complexes avec une grande précision et son application est déjà une réalité dans le secteur judiciaire, bien que toujours discrètement.

Avec l'émergence des nouvelles technologies et leur diffusion, le droit a suivi cette avancée, avec la création de systèmes de procédures numériques et de systèmes automatisés de recherche d'actifs. Ces technologies offrent divers avantages pour l'ensemble de la structure judiciaire, notamment la rapidité et la sécurité pour tous les acteurs du processus. Malgré les craintes initiales et les difficultés de mise en œuvre, ces ressources commencent maintenant à être largement utilisées, apportant plus d'avantages que d'inconvénients.

La technologie a évolué au point où l'intelligence artificielle a émergé, dont l'objectif principal est d'effectuer des tâches effectuées par l'homme plus efficacement et plus rapidement. Pour améliorer encore les instruments d'appui à la justice, il faudra faire évoluer cette technologie en faveur du droit, mais toujours de manière discrète et expérimentale.

Dans ce scénario, l'utilisation de l'intelligence artificielle pour effectuer des tâches répétitives et standardisées pourrait être une stratégie pour améliorer son efficacité. Cependant, il est essentiel de considérer les préoccupations résultant de la manipulation constante des données, la possibilité de distorsion de leur utilisation ou de leur algorithme, ainsi que l'absence de législation spécifique en la matière.

Cependant, la création d'une intelligence artificielle pour rechercher les actifs des débiteurs et d'autres activités mécaniques et répétitives dans les exécutions est une option prometteuse pour augmenter l'efficacité et réduire le temps consacré à ces recherches.

Un autre problème serait l'utilisation de l'intelligence artificielle, en contradiction flagrante avec le Règlement général sur la protection des données, pour collecter des informations permettant d'établir des modèles de comportement par rapport à un individu particulier.

Un exemple où l'intelligence artificielle a une applicabilité immédiate dans l'action exécutive, tout en respectant les principes éthiques énoncés ci-dessus, concerne la conduite des procédures, dès le départ. Si l'on devait faire le parallèle avec un « smart contract » (qui utilise la technologie blockchain, comme nous le savons), l'Intelligence Artificielle surveillerait toutes les étapes du processus d'exécution, en analysant d'emblée l'acte de procédure, le titre exécutoire, la correspondance avec le défendeur, les étapes ultérieures, le respect des exigences légales, notamment celles qui sont garanties procéduralement, la phase de vente, le calcul du compte de cas, entre autres, mais ?

Mais... toujours dépendant de la surveillance humaine et du sceau de l'agent d'exécution, qui finirait par valider ses conclusions.

Il reste cependant un long chemin à parcourir, à commencer par la disposition légale relative à sa recevabilité, et une grande majorité des juges portugais estiment que l'utilisation de l'intelligence artificielle dans les tribunaux comporte « de graves risques de déformation et de déshumanisation de la justice ».

Dans le système juridique portugais, l'utilisation de robots est expressément interdite dans les procédures d'exécution, et les agents d'exécution qui les utilisent dans le cadre de leur travail sont lourdement sanctionnés

En d'autres termes, la solution proposée ne peut être autre chose qu'une autorisation humaine finale pour toutes les actions qui ont un impact sur la vie des gens.

 

[1] Coloquios tribunais e inteligência artificial uma odisseia no século XXI [en ligne]. 

[2] Recommendation on the Ethics of Artificial [en ligne].

newsid:491234

Voies d'exécution

[Actes de colloques] Défis et possibilités de l'intégration de l'IA dans les essais et l’exécution forcée : devrions-nous interdire ou réglementer ?

Lecture: 27 min

N1235B37

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491235
Copier

par Pierre Iglesias (FR), Délégué aux Affaires Européennes et Internationales, Chambre Nationale des Commissaires de Justice

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39

L’Intelligence Artificielle (IA) est depuis quelques années communément défini comme un ensemble de technologies et de méthodes qui permettent à des ordinateurs et logiciels de simuler des fonctions cognitives humaines telles que la perception, le raisonnement, l’apprentissage et la prise de décision.

L’article 3 du Règlement européen n° 2024/1689 N° Lexbase : L1054MND définit l’IA comme « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels »

L’objectif de l’IA est de reproduire, d’imiter ou d’augmenter certaines capacités humaines pour réaliser des tâches complexes de manière autonome ou semi autonome.

Il existe différents types d’IA classés communément en fonction de leurs missions. Dans un premier temps, il existe l’IA Faible, conçue pour accomplir des tâches spécifiques sans véritable compréhension ou conscience. Elle est courante dans des applications d’assistants vocaux ou encore dans les Chats bots. Dans un deuxième temps, il existe l’IA Forte qui est pour l’instant en état théorique, et viserait à égaler ou dépasser l’intelligence humaine dans une grande variété de domaine. L’IA Générale pourrait à terme comprendre, apprendre et s’adapter de manière similaire à l’intelligence humaine. Dans un troisième temps, l’IA dite « Apprentissage automatique » est une sous-catégorie d’IA qui repose sur des algorithmes qui permettent d’apprendre à partir de données et d’améliorer leurs performances au fil du temps. Enfin l’IA dite « Apprentissage profond », est une machine d’apprentissage construite sur un réseau de neurones artificiels inspirés du cerveau humain pour traiter une grande quantité de données non structurées.

Généralement, l’IA permet d’automatiser des processus répétitifs, ce qui améliore l’efficacité, elle apprend des données et ajuste ses décisions en fonction des nouvelles informations et est capable de prendre des décisions en analysant d’énormes volumes de données tout en les mettant en balance avec les tendances du moment.

L’IA est la naissance d’un nouvelle être doué de raisonnement, qui a pour vocation de faciliter et enrichir les activités humaines. 

Le champ infini de cet IA questionne, il fait peur et génère des débats importants notamment sur l’éthique, la sécurité mais encore sur l’impact social.

Vous m’avez demandé de travailler sur la place de l’IA dans le procès et l’exécution des décisions de justice, pour déterminer si nous devions interdire ou plutôt réglementer l’IA.

À titre liminaire, je vous propose avant d’apporter la réponse à cette question hautement débattue, de regarder concrètement la place que l’IA peut prendre dans le cadre de nos activités quotidiennes.

Compte tenu de la définition ci-dessus précisée, nous comprenons très rapidement la place que l’IA peut prendre dans nos activités. Elle pourra en effet nous faciliter le travail, nous permettre d’améliorer la gestion de nos offices et accroitre nos rentabilités mais surtout et avant tout, elle permettra d’améliorer l’accès à la justice en offrant des possibilités beaucoup plus larges.

I. L’IA et l’exécution des décisions de justice

L’IA joue un rôle incontournable ment positif et présente des avantages précieux.

L’IA permet d’automatiser les taches, elles simplifient les taches régulières comme la gestion des dossiers, les relances pour irrespect des engagements pris, le suivi des procédures générales mais encore l’envoi de notifications diverses en fonction de la données traitées. 

Cette automatisation permet aux professionnels que nous sommes mais également à nos collaborateurs, de se concentrer de manière plus efficace sur des points précis et complexes.

Elle permet d’analyser les données recueillies et ainsi connaitre avec précision les statistiques de recouvrement sur des affaires déterminées en fonction des profils poursuivis. L’IA oriente des lors le professionnel de l’exécution sur des dossiers complexes et lui permets d’accorder un temps priorisé sur des questions dont le résultat mathématique est moins évident.

La Chambre Nationale des commissaires de Justice Française travaille sur l’intégration de l’IA dans les process de signification, notamment pour joindre à la signification des notes de compréhension adaptée, et individualisée. Cela aurait pour conséquence de rendre encore plus intelligible le jargon judiciaire que nous maitrisons telle une deuxième langue mais qui, parfois peut être bien compliqué pour des profanes.

Le contexte de l’exécution des décisions de justice en France connait, comme dans beaucoup d’autres pays du monde, une augmentation croissante de l’agressivité et place les professionnels de l’exécution dans des cas de danger, que désormais, grâce à l’IA, nous pourrions anticiper.

Enfin, l’Europe est entrée dans cycle commun de réduction des délais judiciaires. 

L’ancien ministre de la Justice Éric Dupond-Moretti a inauguré la politique de l’amiable afin d’inciter les professionnelles à s’orienter vers les modes alternatifs de règlement des différends. Nous pouvons penser qu’en fonction des données, l’IA puisse être utilisée pour simplifier la résolution des conflits et ainsi, accélérer la clôture de certaines affaires.

II. Les limites de l’IA dans l’exécution des décisions de justice

L’IA a des avantages certains mais son développement présentes des limites importantes et des questionnements sérieux notamment en notre matière.

J’entends planer l’argument générique de l’opposition au développement de cette intelligence : « L’IA va tuer les métiers et les emplois ». C’est un risque qu’il serait malhonnête d’occulter. 

Cependant l’automatisation générale dans le monde de la justice semble impossible tant elle exige une dimension humaine où chaque cas est unique et mérite une attention individualisée.

La réussite de l’IA dépend des données qu’elle étudie. Si ces données sont biaisées, l’IA peut devenir un amplificateur de décisions injustes ou un reproducteur de discriminations existantes.

Les professionnels de l’exécution sont « LE » tiers de confiance de la Justice, et en cette qualité, il garanti aux justiciables ainsi qu’aux acteurs de la justice une transparence certaine. 

Afin de répondre à cet impératif, l’IA judiciaire devra contourner la problématique de l’opacité des algorithmes, et permettre aux droits de la défense de s’exercer pleinement.

Enfin, dans le cadre de nos exercices, nous récoltons, sans s’en rendre compte, un nombre important de données protégées. L’IA judiciaire se nourrit des données recueillis, par conséquent, elle sera automatiquement limitée par nos obligations déontologiques et professionnelles relatives à la protection des données.

Faut-il, donc, interdire ou règlementer l’IA judiciaire ?

Nous aurions pu avoir un échange philosophique sur cette question avec des arguments d’un coté protectionnistes et des arguments de rigueur d’un autre coté, mais cette question a été historiquement solutionnée par le règlement européen 2024/1689 du 13 Juin 2024 baptisé « l’IA ACTE », qui interdit et règlemente en même temps en fonction des IA et des activités dans lesquelles elles sont développées.

La commission européenne a en effet proposé le premier cadre réglementaire de l’Union Européenne pour l’IA.

L’objectif affiché est « d’améliorer le fonctionnement du marché intérieur en établissant un cadre juridique uniforme, en particulier pour le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d’intelligence artificielle (ci-après dénommés «systèmes d’IA») dans l’Union, dans le respect des valeurs de l’Union, de promouvoir l’adoption de l’intelligence artificielle (IA) axée sur l’humain et digne de confiance tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux consacrés dans la Charte des droits fondamentaux de l’Union européenne (ci-après dénommée «Charte»), y compris la démocratie, l’état de droit et la protection de l’environnement, de protéger contre les effets néfastes des systèmes d’IA dans l’Union, et de soutenir l’innovation. Le présent règlement garantit la libre circulation transfrontière des biens et services fondés sur l’IA, empêchant ainsi les États membres d’imposer des restrictions au développement, à la commercialisation et à l’utilisation de systèmes d’IA, sauf autorisation expresse du présent règlement »

Ce cadre propose que les systèmes d’IA soient analysés et classés en fonction du risque qu’ils présentent pour les utilisateurs. 

Le Parlement Européen souhaite que l’utilisation de l’IA soit « sure, transparents, traçables, non discriminatoires et respectueux de l’environnement ».

Selon l’IA ACT, il existe des règles précises en fonction du niveau de risque.

  • Si le risque est inacceptable, c’est-à-dire que le système est considéré comme une menace pour les personnes, dans ce cas, l’IA est INTERDITE. (Article 5)

« Si l’IA peut être utilisée à de nombreuses fins positives, elle peut aussi être utilisée à mauvais escient et fournir des outils nouveaux et puissants à l’appui de pratiques de manipulation, d’exploitation et de contrôle social. De telles pratiques sont particulièrement néfastes et abusives et devraient être interdites, car elles sont contraires aux valeurs de l’Union relatives au respect de la dignité humaine, à la liberté, à l’égalité, à la démocratie et à l’état de droit, ainsi qu’aux droits fondamentaux consacrés dans la Charte, y compris le droit à la non-discrimination, le droit à la protection des données et à la vie privée et les droits de l’enfant. »

  • Si le risque est élevé, c’est-à-dire que le système a un impact négatif sur la sécurité ou les droits fondamentaux. Dans ce cas, il faut distinguer les systèmes utilisés dans les produits tels que les jouets et les systèmes appartenant à des domaines spécifiques tels que l’application de la loi. Si le système est dit « à haut risque », l’IA devra être évaluée avant sa mise sur le marché et sera contrôlée tout au long de son cycle.
  • Si le risque n’est pas élevé, tel que les IA Générative comme ChatGPT, elles devront se conformer aux exigences de transparences ainsi qu’à la législation de l’Union sur les droits d’auteurs. Concernant les IA descriptives, l’IA ACT impose au nom de la transparence que les rendus soient étiquetés comme ayant été générés par l’IA.

Selon cette révolution européenne à dimension mondiale, l’application de la loi et de facto, l’IA judiciaire sont classées au titre des risques élevés.

Cela signifie que l’IA ne sera pas interdite mais qu’il faudra la règlementer avec attention, tout en ayant en tête les domaines où les systèmes d’IA font encourir aux citoyens des risques inacceptables.

Nathalie Fricero écrit dans la revue des commissaires de justice : 

« Selon le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024, les systèmes d’IA utilisés dans le domaine de la justice sont classés à haut risque, en raison de leur impact sur l’état de droit, les libertés individuelles ainsi que le droit à un recours effectif et à accéder à un tribunal impartial : tout système destiné à l’exécution des décisions de justice doit être considéré comme à haut risque. Il en va de même, selon le même Règlement, des systèmes destinés à être utilisés par une autorité judiciaire ou pour le compte de celle-ci pour aider les autorités judiciaires à rechercher et à interpréter les faits et la loi et à appliquer la loi à un ensemble concret de faits. Il faut ajouter dans cette catégorie les systèmes d’IA destinés à être utilisés par des organismes de règlement extrajudiciaire des litiges lorsque les résultats des procédures de règlement extrajudiciaire des litiges produisent des effets juridiques pour les parties »

Tel un professionnel de l’exécution qui est régi par un cadre normatif stricte, gage de sa qualité de tiers de confiance, l’IA judiciaire devra respecter une réglementation nationale et sera soumise au contrôle des juridictions nationales sur saisine des citoyens.

Donc, l’IA judiciaire ne peut être interdite, cependant, sa réglementation s’impose. 

(6) « Compte tenu de l’incidence majeure que l’IA peut avoir sur nos sociétés et de la nécessité de bâtir la confiance, l’IA et son cadre réglementaire doivent impérativement être élaborés dans le respect des valeurs de l’Unionconsacrées à l’article 2 du traité sur l’Union européenne, des droits et libertés fondamentaux prévus par les traités, et, conformément à l’article 6 du traité sur l’Union européenne, de la Charte. »

(8) « Un cadre juridique de l’Union établissant des règles harmonisées sur l’IA est donc nécessaire pour favoriser le développement, l’utilisation et l’adoption de l’IA dans le marché intérieur, tout en garantissant un niveau élevé de protection des intérêts publics, comme la santé et la sécurité, et de protection des droits fondamentaux, y compris la démocratie, l’état de droit et la protection de l’environnement, tels qu’ils sont reconnus et protégés par le droit de l’Union ».

Comme nous l’avons vu, la place de l’IA dans l’exécution des décisions de justice se concentre sur la gestion d’une étude, sur les activités monopolistiques mais également sur les activités hors monopole telles que le constat.

En 2019, le GEHN IA a fixé les bases de l’IA, en construisant sept lignes directrices en matière d’éthique pour une IA digne de Confiance.

« Action humaine et contrôle humain » renvoient au fait que les systèmes d’IA sont développés et utilisés comme un outil au service des personnes, qui respecte la dignité humaine et l’autonomie de l’individu, et qui fonctionne de manière à pouvoir être contrôlé et supervisé par des êtres humains. 

« Robustesse technique et sécurité » renvoient au fait que les systèmes d’IA sont développés et utilisés de manière qu’ils soient techniquement robustes en cas de problème et résilients aux tentatives visant à en corrompre l’utilisation ou les performances afin de permettre à des tiers d’en faire une utilisation abusive, et à réduire le plus possible les atteintes involontaires. 

« Respect de la vie privée et gouvernance des données » renvoient au fait que les systèmes d’IA sont développés et utilisés conformément aux règles en matière de respect de la vie privée et de protection des données, dans le cadre d’un traitement de données répondant à des normes élevées en matière de qualité et d’intégrité.

« Transparence » renvoie au fait que les systèmes d’IA sont développés et utilisés de manière à permettre une traçabilité et une explicabilité appropriées, faisant en sorte que les personnes réalisent qu’elles communiquent ou interagissent avec un système d’IA, que les déployeurs soient dûment informés des capacités et des limites de ce système d’IA et que les personnes concernées soient informées de leurs droits. 

« Diversité, non-discrimination et équité » renvoient au fait que les systèmes d’IA sont développés et utilisés de manière à inclure des acteurs divers et à promouvoir l’égalité d’accès, l’égalité de genre et la diversité culturelle, tout en évitant les effets discriminatoires et les biais injustes, qui sont interdits par le droit de l’Union ou le droit national. 

« Bien-être sociétal et environnemental » renvoie au fait que les systèmes d’IA sont développés et utilisés d’une manière durable et respectueuse de l’environnement, mais aussi de manière que tous les êtres humains en profitent, tout en surveillant et en évaluant les effets à long terme sur l’individu, la société et la démocratie.

Ces bases posées de l’IA Digne de Confiance affectée au tiers de confiance, me permets d’étudier la règlementation de l’IA judiciaire dans l’exécution des décisions de justice, en fonction du cadre d’activité rencontré.

III. L’IA et la gestion interne d’une étude - L’IA à faible risque.

Selon l’étude de Goldman Sachs parue en 2023 : trois cents millions d'emplois à temps plein pourraient être menacés par des IA génératives en Europe et aux Etats-Unis. Dans la zone euro, les postes les plus concernés par un remplacement seraient les fonctions administratives, et de support (45%) ainsi que les cadres et les métiers qualifiés comme le juridique (34 %).

L’Article 6-3 du Règlement européen n° 2024/1689 N° Lexbase : L1054MND prévoit :

« 3. Par dérogation au paragraphe 2, un système d’IA visé à l’annexe III n’est pas considéré comme étant à haut risque lorsqu’il ne présente pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, y compris en n’ayant pas d’incidence significative sur le résultat de la prise de décision.

Le premier alinéa s’applique lorsqu’une des conditions suivantes est remplie : 

a) le système d’IA est destiné à accomplir un tâche procédurale étroite ; 

b) le système d’IA est destiné à améliorer le résultat d’une activité humaine préalablement réalisée ; 

c) le système d’IA est destiné à détecter les constantes en matière de prise de décision ou les écarts par rapport aux constantes habituelles antérieures et n’est pas destiné à se substituer à l’évaluation humaine préalablement réalisée, ni à influencer celle-ci, sans examen humain approprié ; ou 

d) le système d’IA est destiné à exécuter une tâche préparatoire en vue d’une évaluation pertinente aux fins des cas d’utilisation visés à l’annexe III. »

Il convient d’entendre par système d’IA un système qui n’a pas d’incidence substantielle sur le résultat de la prise de décision qu’elle soit humaine ou automatisée. 

Dans les cas où une ou plusieurs des conditions ci-après sont remplies, il pourrait s’agir d’un système d’IA qui n’a pas d’incidence substantielle sur le résultat de la prise de décision.

  • la première de ces conditions devrait être que le système d’IA est destiné à accomplir une tâche procédurale étroite, comme transformer des données non structurées en données structurées, classer les documents entrants par catégories ou détecter les doublons parmi un grand nombre d’applications. Ces tâches sont par nature si étroites et limitées qu’elles ne présentent que des risques limités, qui ne sont pas exacerbés par une utilisation d’un système d’IA dans un contexte répertorié parmi les utilisations à haut risque dans la liste figurant en annexe du présent règlement ;
  • la deuxième condition devrait être que la tâche effectuée par le système d’IA est destinée à améliorer le résultat d’une activité humaine préalablement réalisée, susceptible d’être utile aux fins des utilisations à haut risque énumérées dans une annexe du présent règlement. Compte tenu de ces caractéristiques, le système d’IA n’ajoute qu’une couche supplémentaire à une activité humaine, ce qui présente par conséquent un risque réduit. Cette condition s’appliquerait par exemple aux systèmes d’IA destinés à améliorer la façon dont un document est rédigé, pour lui donner un ton professionnel ou un style académique ou pour l’adapter à un message de marque défini ;
  • la troisième condition devrait être que le système d’IA est destiné à détecter les constantes en matière de prise de décision ou les écarts par rapport aux constantes habituelles antérieures. Le risque serait réduit parce que l’utilisation du système d’IA intervient après la réalisation d’une évaluation humaine et n’est pas destinée à se substituer à celle-ci ni à l’influencer, sans examen humain approprié. Il s’agit par exemple des systèmes d’IA qui, compte tenu de certaines constantes habituelles observées chez un enseignant au niveau de la notation, peuvent être utilisés pour vérifier a posteriori si l’enseignant s’est éventuellement écarté de ces constantes, de manière à signaler d’éventuelles incohérences ou anomalies ;
  • la quatrième condition devrait être que le système d’IA est destiné à exécuter une tâche qui n’est qu’un acte préparatoire à une évaluation pertinente aux fins des systèmes d’IA repris dans la liste figurant dans une annexe du présent règlement et, partant, la probabilité que les sorties produites par le système présentent un risque pour l’évaluation postérieure est très faible. Cette condition s’applique, entre autres, aux solutions intelligentes de traitement des fichiers, qui comprennent diverses fonctions telles que l’indexation, la recherche, le traitement de texte et le traitement de la parole ou le fait de relier des données à d’autres sources de données, ou aux systèmes d’IA utilisés pour la traduction de documents initiaux.

IV. L’IA et les Activités Monopolistiques (Signification et Exécution) : l’IA à haut risque

Selon le Règlement européen, « certains systèmes d’IA destinés à être utilisés pour l’administration de la justice et les processus démocratiques devraient être classés comme étant à haut risque, compte tenu de leur incidence potentiellement significative sur la démocratie, l’état de droit, les libertés individuelles ainsi que le droit à un recours effectif et à accéder à un tribunal impartial. En particulier, pour faire face aux risques de biais, d’erreurs et d’opacité, il convient de classer comme étant à haut risque les systèmes d’IA destinés à être utilisés par une autorité judiciaire ou pour le compte de celle-ci pour aider les autorités judiciaires à rechercher et à interpréter les faits et la loi, et à appliquer la loi à un ensemble concret de faits. Les systèmes d’IA destinés à être utilisés par des organismes de règlement extrajudiciaire des litiges à ces fins devraient également être considérés comme étant à haut risque lorsque les résultats des procédures de règlement extrajudiciaire des litiges produisent des effets juridiques pour les parties. L’utilisation d’outils d’IA peut soutenir le pouvoir de décision des juges ou l’indépendance judiciaire, mais ne devrait pas les remplacer, car la décision finale doit rester une activité humaine. »

Dans l’ouvrage « L’algorithmisassions de la justice » dirigé par le Professeur Clavier, la question semble avoir été traitée, mais uniquement au-travers du prisme des activités monopolistiques du commissaire de justice (signification et exécution des décisions de justice).

« La Justice est une caractéristique fondamentale de tout État de droit. Les principes qui garantissent son bon fonctionnement sont-ils menacés par l’émergence, ces dernières années, de puissants outils algorithmiques ? 

L’intelligence artificielle nourrie de données issues des décisions de justice offre aux professionnels du droit de nouveaux moyens de répondre aux attentes des justiciables, comme une meilleure prévisibilité de l’issue de leur contentieux. 

L’open data des décisions de justice amplifie le mouvement et favorise un marché du droit qui voit apparaître de nouveaux acteurs nommés Legaltechs. À l’évidence, le mouvement est profond et durable. »

L’IA judiciaire est une IA à haut risque et à ce titre, doit faire l’objet d’une réglementation et d’un contrôle stricte.

Le Règlement européen encadre ces systèmes et impose les contours suivants :

  • mise en place d’un système de gestion des risques, c’est-à-dire un processus itératif continu qui est planifié et se déroule sur l’ensemble du cycle de vie d’un système d’IA à haut risque et qui doit périodiquement faire l’objet d’un examen et d’une mise à jour méthodiques.
  • développement sur la base de jeux de données d’entrainement, de validation et de tests encadrés. (article 10)
  • soumission d’une documentation technique à jour, avant que le système d’IA ne soit mis sur le marché ou mis en service
  • mise en œuvre d’une technique permettant d’enregistrer automatiquement les évènements tout au long de la vie de l’IA, afin de garantir un degré de traçabilité en adéquation avec le risque encouru.
  • obligation de transparence – IA accompagnée d’une notice d’utilisation dans un format numérique approprié comprenant des informations concises, complètes, exactes et claires.
  • contrôle Humain obligatoire pendant la période d’utilisation
  • exigence d’exactitude, de robustesse et de cybersécurité pendant tout le long du cycle de vie de l’IA.

Cependant, il ne faut pas que l’IA établisse une espèce de score social, en classant les personnes en fonction de leur comportement, de leur statut socio-économique ou encore en fonction de leurs caractéristiques personnelles.

(31) « Les systèmes d’IA permettant la notation sociale des personnes physiques par des acteurs publics ou privés peuvent conduire à des résultats discriminatoires et à l’exclusion de certains groupes. Ils peuvent porter atteinte au droit à la dignité et à la non-discrimination et sont contraires aux valeurs d’égalité et de justice. Ces systèmes d’IA évaluent ou classent les personnes physiques ou les groupes de personnes physiques en fonction de plusieurs points de données liées à leur comportement social dans divers contextes ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites pendant un certain temps. La note sociale obtenue à partir de ces systèmes d’IA peut conduire au traitement préjudiciable ou défavorable de personnes physiques ou de groupes entiers dans des contextes sociaux qui sont dissociés du contexte dans lequel les données ont été initialement générées ou collectées, ou à un traitement préjudiciable disproportionné ou injustifié au regard de la gravité de leur comportement social. Il y a donc lieu d’interdire les systèmes d’IA impliquant de telles pratiques de notation inacceptables et produisant de tels effets préjudiciables ou défavorables. Cette interdiction ne devrait pas avoir d’incidence sur les évaluations licites des personnes physiques qui sont pratiquées dans un but précis, dans le respect du droit de l’Union et du droit national »

Si tel est le cas, l’IA passe de haut risque à risque inacceptable et dans ce cas, elle est « INTERDITE ».

Article 5 – 1 c « les pratiques en matière d’IA suivantes sont interdites : la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA pour l’évaluation ou la classification de personnes physiques ou de groupes de personnes au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites, la note sociale conduisant à l’une ou l’autre des situations suivantes, ou aux deux: i) le traitement préjudiciable ou défavorable de certaines personnes physiques ou de groupes de personnes dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées à l’origine; ii) le traitement préjudiciable ou défavorable de certaines personnes ou de groupes de personnes, qui est injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci »

La frontière du recueillement des données semble fine et contraint les professionnels de l’exécution à une vigilance certaine.

V. L’IA et le constat – L’IA à usage général

Selon Sylvian Dorol « une constatation purement matérielle est toute situation personnellement constatée par le commissaire de justice au moyen de ses sens, et qu’il n’a pas provoquée par une opération intellectuelle de nature à troubler sa qualité de tiers neutre, indépendant et impartial ».

Selon cette définition, il parait peu probable que l’IA remplace le commissaire de justice constatant. 

La doctrine semble s’accorder sur cette affirmation et ainsi créer une école de pensée résumée les mots de son chef de file Sylvian Dorol « ce qui est compliqué pour l’humain est simple pour une I.A., et ce qui est naturel pour l’humain est difficile pour une I.A ».

La place de l’être humain est affirmée par l’IA ACT mais également rappelé par nombre de professionnel reconnu tel que Daniel ANDLER. Selon ce dernier, « le rôle du corps est fondamental, puisqu’une constatation est en quelque sorte une perception brute du commissaire de justice, il serait impossible de constater sans chair. »

En effet, tout procès-verbal de constat est sélectif : il répond à une demande clairement formulée par le requérant par la vérification personnelle par le commissaire de justice d’éléments matériels.

Si l’IA ne remplaçait pas le Commissaire de Justice constatant, elle serait pour ce dernier un assistant précieux, maximisant sa réactivité et son efficacité. 

L’IA dépend des données qui l’alimentent et elle dépend des sollicitations qu’elle reçoit.

L’IA permet au Commissaires de Justice une analyse rapide des données pertinentes pour lui apporter un cadre de renseignements construisant un socle de compréhension plus large et plus rapide. 

Cependant, le Commissaire de Justice conserve le jugement de l’opportunité du constat.

Conclusion

Les commissaires de justice et les huissiers de justice n’auraient il pas intérêt aujourd’hui de devenir des « déployeurs » (« toute personne physique ou morale, y compris une autorité publique, une agence ou un autre organisme, utilisant sous sa propre autorité un système d’IA, sauf lorsque ce système est utilisé dans le cadre d’une activité personnelle à caractère non professionnel. »)

Sommes-nous, aujourd’hui, acteur de l’histoire ?

Nos réflexions communes vont-elles nous permettre de créer une IA judiciaire respectant les réglementations européennes, le respect des données personnelles et le secret des affaires ? L’IA des agents d’exécutions pourrait-elle être l’IA de la justice, une IA digne de confiance développée et gérée par « LE » Tiers de Confiance ?

newsid:491235

Voies d'exécution

[Actes de colloques] Conclusion générale du 3ème Forum mondial sur l’exécution du 2 décembre 2025 : l’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ?

Lecture: 3 min

N1261B34

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491261
Copier

par Patrick Gielen (BE), Secrétaire de l’Union Internationale des Huissiers de Justice (UIHJ), Membre du comité scientifique de la revue Lexbase Contentieux et Recouvrement

Le 18 Décembre 2024

Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)

Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.

Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39


 

L'intégration rapide de l'intelligence artificielle (IA) dans l'exécution judiciaire ouvre d'importantes perspectives, transformant les opérations pour les rendre plus efficaces, transparentes et accessibles. Les capacités de l'IA à automatiser des tâches, analyser de vastes ensembles de données et faciliter la prise de décision en temps réel offrent un potentiel considérable pour rationaliser les processus, réduire les coûts opérationnels et, en fin de compte, améliorer l'accès des citoyens à la justice. Pour les huissiers de justice, l'IA permet d'automatiser les tâches administratives répétitives, de fournir des analyses prédictives pour prioriser les dossiers et d'offrir des outils de communication personnalisés, leur permettant de se concentrer sur des tâches complexes et à forte valeur ajoutée qui nécessitent une perception et un jugement humains.

Cependant, bien que prometteuse pour la transformation de l'exécution judiciaire, cette avancée technologique comporte également des implications éthiques, juridiques et sociétales significatives. Une préoccupation majeure est la protection des droits de l'homme dans les systèmes automatisés. Les principaux défis incluent l'opacité des algorithmes d'IA (souvent considérés comme des « boîtes noires »), les biais potentiels enracinés dans les données d'entraînement, et la nécessité d’une responsabilité claire dans les décisions automatisées. Ces risques soulignent l'importance de la supervision humaine et de la transparence pour garantir que les applications de l'IA ne compromettent pas les droits des citoyens, en particulier lorsque les erreurs ou les biais dans les prédictions de l'IA peuvent avoir de graves conséquences sur les vies et les libertés des individus.

La Convention-cadre du Conseil de l'Europe et la loi sur l'IA de la Commission européenne fournissent des lignes directrices fondamentales pour l'IA dans le secteur juridique, en promouvant des principes tels que la transparence, la non-discrimination, le contrôle par l'utilisateur et la nécessité d'une supervision humaine. Ces cadres soulignent que l'IA doit servir la justice sans remplacer le jugement, l'empathie et les considérations éthiques inhérentes à la prise de décision humaine. Les huissiers de justice jouent un rôle crucial en tant qu'intermédiaires, équilibrant les gains d'efficacité avec l'équité, en adaptant les outils d'IA de manière à respecter les droits et la dignité de toutes les parties impliquées dans les actions d'exécution.

Pour parvenir à une adoption éthique et durable de l'IA, des évaluations continues et des mises à jour régulières des cadres réglementaires sont essentielles. Le déploiement de l'IA dans l'exécution judiciaire devrait inclure des audits réguliers, la mise en place de mesures anti-discrimination et des mécanismes pour corriger rapidement les erreurs. Par ailleurs, le rôle des huissiers de justice devrait évoluer pour inclure une maîtrise de la supervision de l'IA, ce qui nécessitera une formation spécialisée et une compréhension claire des limitations et des biais potentiels de l'IA. La collaboration avec des scientifiques des données, des spécialistes de l’éthique et des experts juridiques sera également essentielle pour façonner une approche équitable et centrée sur l'humain de l'IA dans les systèmes d'exécution.

En conclusion, l'IA offre des outils puissants pour renforcer les capacités des huissiers de justice et améliorer l'accès à la justice, mais il est crucial de maintenir une approche équilibrée où la technologie complète, sans remplacer, les professionnels humains. En respectant des normes éthiques et en priorisant les droits de l'Homme, le système judiciaire peut exploiter de manière responsable les avantages de l'IA tout en préservant les principes fondamentaux de la justice.

newsid:491261

Voies d'exécution

[Chronique] Chronique de jurisprudence constat (septembre à novembre 2024)

Lecture: 12 min

N1291B39

Citer l'article

Créer un lien vers ce contenu

Lire en ligne : https://www.lexbase.fr/revue-juridique/93838024-revue-lexbase-contentieux-et-recouvrement#article-491291
Copier

par Sylvian Dorol, Commissaire de justice, Expert près l’UIHJ, Directeur scientifique de la revue Lexbase Contentieux et Recouvrement, Spécialiste de l’administration judiciaire de la preuve

Le 17 Décembre 2024

Mots-clés : injonction de payer • insaisissabilité • SCI • saisie • expulsion • constat

La revue Lexbase Contentieux et Recouvrement vous propose de retrouver la huitième chronique illustrée par les plus récentes décisions jurisprudentielles sous la forme d’un contenu original rédigé par Sylvian Dorol, correspondant également à l’évolution du Bulletin d’informations de la SCP VENEZIA, édité en partenariat avec les éditions juridiques Lexbase.


 

I. L’injonction de payer

  • Cass. civ. 2, 24 octobre 2024, n° 22-15.682, F-B [LXB=]

La procédure d’injonction de payer, c’est comme les travaux : on sait quand ça commence, mais pas quand ça se finit.

Le grand avantage de cette procédure est qu’elle peut être introduite très facilement, même par des non-initiés. C’est après que ça se complique.

En effet, si l’ordonnance est rendue non contradictoirement, le débiteur peut très facilement s’opposer à cette décision, contraignant le créancier à assigner. L’opposition du débiteur est cependant encadrée dans le délai strict d’un mois dont la date de départ varie à la lecture de l’article 1416 du Code de procédure civile N° Lexbase : L6356H7K :

1/ Si l’ordonnance a été remise “à personne”, le délai court à compter de ce moment ;

2/ Si l’ordonnance n’a pas été signifiée “à personne”, l'opposition est recevable jusqu'à l'expiration du délai d'un mois suivant le premier acte signifié “à personne” ou, à défaut, suivant la première mesure d'exécution ayant pour effet de rendre indisponibles en tout ou partie les biens du débiteur.

L’article 1416 du Code de procédure civile a une écriture limpide, mais une difficile application.

En témoigne l’arrêt rendu par la Cour de cassation le 24 octobre 2024, qui statue sur la date de départ de l’opposition en cas de saisie des rémunérations, et plus précisément dans l’hypothèse de l’intervention (cas où une saisie des rémunérations est en cours, et qu’un créancier s’y joint).

La spécificité de ce cas est que la mesure d’exécution est déjà en cours au moment où le créancier porteur de l’injonction de payer intervient. Dans cette hypothèse où l’ordonnance n’a pas été signifiée « à personne », quelle est alors la date de départ du délai d’opposition dans la mesure où la procédure d’exécution est déjà en cours ?

À cette interrogation, la Cour de cassation procède à une interprétation de l’article 1416 du Code de procédure civile et juge que lorsque l'ordonnance portant injonction de payer ne lui a pas été signifiée « à personne », le délai d’opposition court à compter du jour où la mesure d'exécution a été portée à la connaissance du débiteur.

Faut-il s’en émouvoir ? À notre sens, non. Car la Cour de cassation avait déjà rendu un avis privilégiant l'information effective du débiteur à la cohérence des textes (Cass. avis, 16 septembre 2002, n° 02-00.003 N° Lexbase : A7546CHX).

Ce n’est donc pas une surprise, et cette décision ne change rien à la position traditionnelle de la Cour de cassation. Ainsi, en l'absence de signification « à personne » de l'ordonnance d'injonction de payer :

1/ le délai pour former opposition court, en cas de saisie-attribution, à compter du jour de la dénonciation de la saisie au débiteur ;

2/ une tentative d'exécution qui s'est avérée infructueuse ne constitue pas la première mesure d'exécution au sens de l’article 1416 du Code de procédure civile et ne saurait constituer le point de départ du délai ouvert au débiteur pour formuler opposition.

D’aucuns pourraient qualifier la position de la Cour de cassation de “surprotectrice” des intérêts du débiteur. Ce serait oublier le fait que la protection du débiteur est proportionnelle au privilège du créancier qui peut bénéficier d’un titre exécutoire non contradictoirement rendu.

En d’autres termes, le créancier de l’injonction de payer est comme un funambule : tant qu’il n’y a pas le souffle du débiteur qui s’oppose à lui, tout va bien...

II. Saisie et société civile immobilière

  • Cass. civ. 2, 4 juillet 2024, n° 23-12.267, F-B [LXB=]

Si le juge de l’exécution est omniprésent dans le cadre de la saisie-immobilière, il n’en est pas de même en cas de saisie d’une société civile immobilière (SCI).

En effet, dans le cadre de cette procédure, ce magistrat n’est compétent qu’en cas de contestation de l’exécution forcée.

Dès lors, faut-il retenir sa compétence lorsque la contestation porte uniquement sur le montant de la mise à prix des parts de la SCI ?

La cour d’appel de Bordeaux, le 3 novembre 2022, avait jugé que « si en application de l'article L. 213-6 du Code des procédures civiles d'exécution N° Lexbase : L5850IR4, le juge de l'exécution a compétence exclusive pour statuer sur toutes les contestations concernant les mesures d'exécution d'un titre exécutoire, il ne dispose pas, en l'absence d'un texte spécifique lui permettant de le faire, comme en matière de saisie immobilière , du pouvoir de modifier le montant de la mise à prix fixée par le créancier dans le cahier des charges » (CA Bordeaux, 3 novembre 2022, n° 22/01236 N° Lexbase : A02918SL).

La débitrice s’est pourvue en cassation avec succès comme il va être exposé.

En effet, la Cour de cassation ne partage pas l’avis de la cour d’appel, et juge que la débitrice est recevable à contester devant le juge de l'exécution le montant de la mise à prix pour l'adjudication des droits incorporels saisis, dans les conditions prévues par le premier alinéa de l'article L. 213-6 du Code de l'organisation judiciaire N° Lexbase : L7740LPD.

Son arrêt est fondé en droit puisque, dans sa décision du 17 novembre 2023 (Cons. const., n° 2023-1068 QPC, 17 novembre 2023 N° Lexbase : A61411ZH), le Conseil constitutionnel a déclaré contraires à la Constitution les mots « des contestations qui s’élèvent à l’occasion de l’exécution forcée » figurant au premier alinéa de l’article L. 213-6 du Code de l’organisation judiciaire.

III. Insaisissabilité

  • CA Rennes, 12 novembre 2024, n° 24/00605 [LXB=]

Le Code des procédures civiles d’exécution prévoit expressément qu’est insaisissable le bien indispensable au travail du saisi.

Mais que se passe-t-il lorsque le débiteur invoque l’insaisissabilité trop tard, une fois que le bien saisi a été vendu et les fonds répartis ?

C’est à cette interrogation qu’a répondu la cour d’appel de Rennes le 12 novembre 2024.

En l’espèce, le commissaire de justice avait procédé le 24 mai 2023 à la saisie du véhicule de marque Hyundai de la débitrice.

Elle a contesté la procédure, mais le juge de l’exécution l’a débouté de sa demande.

Appel fut interjeté, mais ce recours n’étant pas suspensif d’exécution, la procédure continua. Avant que la Cour d’appel ne statue, la vente aux enchères publiques intervient le 10 juillet 2023. Puis le produit de la vente (6 300 euros) est distribué entre les créanciers, au grand dam du débiteur.

A posteriori, la Cour d’appel de Rennes a qualifié l’insaisissabilité du véhicule saisi... Quelle réponse apporter au débiteur saisi dont la voiture a été vendue ?

À cette interrogation, la Cour d’appel indique que les dispositions de l'article R. 221-54 du Code des procédures civiles d'exécution N° Lexbase : L2299ITC (si la saisie est déclarée nulle après la vente mais avant la distribution du prix, le débiteur peut demander la restitution du produit de la vente) est inapplicable.

Reste alors la question des dommages-intérêts, la débitrice demandant 5 000 euros (soit presque le montant de la vente du véhicule).

La Cour juge sévèrement que le « préjudice sera exactement et intégralement réparé par l'allocation d'une somme de 2 500 euros à titre de dommages-intérêts » ...

Une somme sans commune mesure avec les 171 853 euros que le débiteur doit au créancier !

IV. Expulsion

  • Cass. civ. 3, 14 novembre 2024, n° 23-13.884, FS-B [LXB=]

Il est traditionnel d’associer bailleur/expulseur, mais il existe des cas où le locataire est l’expulseur, c’est-à-dire demandeur à la procédure d’expulsion !

En témoigne l’arrêt rendu par la Cour de cassation le 14 novembre 2024.

Les faits ne concernent pas un locataire souhaitant s’auto-expulser. Bien au contraire, il s’agit d’une affaire où une société civile d’exploitation agricole (SCEA) avait conclu des baux ruraux sur plusieurs parcelles agricoles. Elle a assigné en expulsion une exploitation agricole à responsabilité limitée (EARL), bénéficiaire de baux antérieurs sur les mêmes parcelles, en soutenant que ces baux étaient inopposables.

L’arrêt d’appel (CA Colmar, 26 janvier 2023, n° 20/01156 N° Lexbase : A89729AK) a déclaré irrecevable sa demande d'expulsion de l'EARL.

Pour déclarer irrecevable la demande en expulsion formée par la SCEA, l'arrêt retient que celle-ci se prévaut de l'existence d'un contrat de bail rural écrit la liant à plusieurs bailleurs dont découlent un droit de jouissance à son bénéfice et une obligation de délivrance à la charge des bailleurs, de sorte que seuls ces derniers ont qualité pour demander l'expulsion de l'EARL.

En résumé, elle estime en effet que l’action en expulsion n’appartient qu’au bailleur.

La SCEA se pourvoit en cassation.

La Cour de cassation, par cet arrêt du 14 novembre, casse cette décision au visa de l’article 31 du Code de procédure civile N° Lexbase : L1169H43. Pour mémoire, cet article dispose « L'action est ouverte à tous ceux qui ont un intérêt légitime au succès ou au rejet d'une prétention, sous réserve des cas dans lesquels la loi attribue le droit d'agir aux seules personnes qu'elle qualifie pour élever ou combattre une prétention, ou pour défendre un intérêt déterminé ».

Elle juge donc que la loi ne limite pas le droit d'agir en expulsion à des personnes qualifiées et que l'intérêt à agir de la SCEA n'était pas contesté.

En conclusion : oui, un locataire peut demander l’expulsion !

V. Constat

L’article 36 du Règlement déontologique des huissiers de justice traite des rapports avec les débiteurs en ces termes : « L’huissier de justice agit avec tact et humanité vis-à-vis des débiteurs, sans exercer de contrainte inutile, ni mettre en œuvre des mesures disproportionnées » (repris à l’article 28 du Code de déontologie).

Ces dispositions peuvent-elles bénéficier à la personne à qui est opposé un procès-verbal de constat ?

C’est à cette interrogation qu’a répondu la cour d’appel de Paris le 3 octobre dernier.

Les faits concernent un litige prud’homal : un employeur a mandaté, sans autorisation judiciaire, un commissaire de justice pour effectuer des investigations sur le matériel professionnel qui était mis à disposition du salarié indélicat.

S’appuyant sur une maladresse de rédaction du procès-verbal du commissaire de justice (qui a indiqué « qu’il pratiquait une perquisition » à la demande de l’employeur) et son comportement (a effectué des recherches informatiques), le salarié critique l’acte sous l’angle déontologique.

La cour d’appel de Paris ne suit cependant pas son raisonnement, notamment parce que l’article 36 du Règlement déontologique des huissiers n’a vocation à s’appliquer, en matière de constat, que lorsque le commissaire de justice agit chez un tiers.

Elle précise également, au visa de l’article 41 du Règlement déontologique national que, étant chez l’employeur et à la demande de celui-ci, l’officier public et ministériel n’avait pas à demander une autorisation pour entrer dans le bureau du salarié visé par la mesure de constat.

  • CA Paris, 18 septembre 2024, n° 22/14799 [LXB=A756053E]

Selon le Président Vincent Vigneau, « le constat d’achat consiste à faire constater par un huissier [commissaire] de justice la vente d’un produit ou l’engagement d’une prestation de service », précisant « on devrait d’ailleurs plutôt parler de “constat de vente” que de constat d’achat » (V. Vigneau, Les constats d’achats : Procédures 2008, étude 10).

Pour diverses raisons, les commissaires de justice n’achètent pas les produits litigieux eux-mêmes, mais ont recours à un tiers pour ce faire.

Une question se pose alors : qui peut être ce tiers ?

La jurisprudence a répondu à cette question en procédant par élimination : ce ne peut être le clerc du commissaire de justice, le stagiaire avocat (la question va cependant revenir devant la Cour de cassation), le salarié du requérant...

Mais... qu’en est-il de la mère du requérant ? De prime abord, la réponse paraît évidente : non !

Cependant, la cour d’appel de Paris ne l’entend pas de cette oreille au terme d’un raisonnement qui fait prévaloir le pragmatisme sur la position de la Cour de cassation. Selon elle, il n’y a rien de déloyal à ce que la mère de la requérante soit le tiers acheteur dans la mesure où elle est désignée comme telle dans le procès-verbal de constat (qui est donc fidèle et loyal à la réalité), et que l’existence d’aucun stratagème n’est démontrée entre le commissaire de justice et la mère de la requérante.

Le constat pouvant en plus être débattu devant les juges, elle retient la validité de l’acte.

En résumé : qu’importe le tiers, pourvu qu’on ait la preuve

Il sera intéressant de connaître la position de la Cour de cassation si un pourvoi est formé. D’ici là, la prudence commande au commissaire de justice d’éviter de recourir aux membres de la famille du requérant pour dresser un constat d’achat.

newsid:491291

Cookies juridiques

Considérant en premier lieu que le site requiert le consentement de l'utilisateur pour l'usage des cookies; Considérant en second lieu qu'une navigation sans cookies, c'est comme naviguer sans boussole; Considérant enfin que lesdits cookies n'ont d'autre utilité que l'optimisation de votre expérience en ligne; Par ces motifs, la Cour vous invite à les autoriser pour votre propre confort en ligne.

En savoir plus