Lecture: 16 min
N1234B34
Citer l'article
Créer un lien vers ce contenu
par Paulo Duarte Pinto (PT), OSAE
le 18 Décembre 2024
Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)
Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.
Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39
« L'IA n'a pas besoin d'être méchante pour détruire l'humanité – si l'IA a un objectif et que l'humanité se met en travers de son chemin, elle détruira l'humanité comme une évidence sans même y penser, sans rancune. » Elon Musk.
Lorsque j'ai commencé à faire des recherches pour cet article, je suis tombé sur l'avis d'un chercheur [1] de l'École d'ingénierie de l'université du Minho au Portugal, qui a résumé son discours en marge du « Colloque promu par la Cour suprême de justice portugaise, sur le thème « Tribunaux et intelligence artificielle - Une odyssée au 21ème siècle ». Commence par dire que l'Intelligence Artificielle (IA) est sur une voie de non-retour, la loi jouant un rôle fondamental dans sa conception, sa régulation et son utilisation. Il affirme également que la vision par ordinateur surpasse la vision humaine et que, dans la traduction linguistique, l'écriture et la parole, l'IA est très proche du niveau humain. Il prédit également que nous entrons dans une ère où la remise en question d'une « machine » pour obtenir des informations et des connaissances remplacera largement la nécessité de les programmer.
Depuis l'antiquité, il y a eu de nombreuses références à des intelligences artificielles archaïques à travers l'histoire, dont le concept largement philosophique s'est surtout consolidé dans la seconde moitié du XXe siècle, par la main de brillants théoriciens des mathématiques, qui se sont montrés très en avance sur leur temps en termes de développements récents dans le domaine de l'informatique.
Toujours dans les années 1950, le non moins brillant professeur de biochimie et auteur de science-fiction Isaac Asimov a écrit les trois lois de la robotique : la première, affirmant qu'un robot ne peut jamais nuire à un être humain, ou permettre à un être humain d'être blessé par l'inaction ; la seconde, affirmant qu'un robot doit toujours obéir aux ordres donnés par un être humain, à moins que ces ordres ne soient en conflit avec la première des Lois ; et la troisième, obligeant le robot à protéger son existence, à condition que cette protection n'entre pas en conflit avec la première et la deuxième des Lois. Plus tard, Asimov a ajouté la loi « Zéro », qui devait précéder les trois lois précédentes, dans lesquelles un robot ne pouvait causer aucun mal à l'humanité, ou permettre à l'humanité de se causer du mal à elle-même, en raison de l'inaction du robot.
Toutes ces lois ont par la suite influencé l'éthique de l'intelligence artificielle, en tant qu'ensemble de principes et de valeurs qui guident la création, l'application et l'installation de l'intelligence artificielle, en promouvant la responsabilité, la justice, la sécurité et la transparence. Garantir l'équité dans les algorithmes et ne pas perpétuer les préjugés et la discrimination est l'un des défis les plus importants dans ce domaine.
La recommandation de l'UNESCO [2] sur l'éthique de l'intelligence artificielle vise à fournir un cadre pour garantir le fonctionnement des systèmes d'intelligence artificielle au profit de l'humanité, des individus, des sociétés, de l'environnement et des écosystèmes, en plus de prévenir d'éventuels dommages, ainsi que de promouvoir l'utilisation pacifique des systèmes d'intelligence artificielle.
À ce stade, nous aimerions souligner le respect, la promotion et la protection des droits de l'Homme et des libertés fondamentales, de la dignité humaine, de l'égalité, de l'environnement et de la diversité culturelle, parmi d'autres droits inviolables, qui devraient guider éthiquement l'intelligence artificielle.
À côté de ces droits inviolables, il y a aussi l'interdiction de l'objectivation de l'être humain par l'Intelligence Artificielle, qui doit être renforcée dans les nouvelles technologies et les nouveaux processus introduits, pour respecter et défendre les droits de l'homme.
Mais qu'est-ce que l'intelligence artificielle ?
Pour nous, l'intelligence artificielle fait référence à l'ensemble des données et des algorithmes, générés par la modélisation mathématique, dans le but de traiter des informations dans un but spécifique.
Au sens figuré, les algorithmes créent, décident et suivent des itinéraires numériques, définissant ainsi les parcours de tous les participants au monde numérique. Cela se fait en collectant, comparant des calculs et des actions automatisées, dans certains cas sur la base de spécifications préétablies, et dans d'autres sur la base d'autorisations d'actions dérivées de la capacité d'auto-apprentissage du système lui-même, dans ce qui est considéré comme l'apprentissage automatique, l'une des méthodes les plus utilisées, en reconnaissant que tout logiciel utilisant cette méthode sera plus autonome que les programmes codés manuellement et à l'avance. Le système est ainsi capable d'identifier des modèles et de faire des prédictions et, de plus, si l'ensemble des données est de bonne qualité, les performances peuvent dépasser celles des tâches effectuées par l'homme.
Il est donc important, à ce stade, de créer les principes et les barrières éthiques nécessaires au développement de l'Intelligence Artificielle, en vue de remplir la finalité pour laquelle elle a été créée, notamment en l'adaptant à son intervention dans les actions d'exécution, permettant une cohabitation - peut-être a priori difficile - avec la protection des données personnelles, d'une part, et d'autre part, tout en garantissant le caractère personnel essentiel de l'approche de l'huissier de justice vis-à-vis des parties.
Principes qui devraient guider l'éthique de l'Intelligence Artificielle
I. Proportionnalité et prévention des préjudices
Bien que l'intelligence artificielle ne garantisse pas automatiquement le bien-être des êtres humains, les processus liés au cycle de vie des systèmes d'intelligence artificielle ne doivent être effectués que pendant la période nécessaire pour atteindre des objectifs ou des buts valides et appropriés au contexte dans lequel ils sont réalisés.
En cas de préjudice causé aux personnes, aux droits de l'homme ou aux communautés, il est nécessaire de prendre des mesures préventives contre ce dommage, sous l'égide de l'inviolabilité des droits fondamentaux, en évaluant les risques et en prenant les mesures nécessaires, en laissant toujours la décision finale à l'intervention humaine.
II. Sûreté et sécurité
Il est crucial de prévenir et de résoudre les dommages indésirables et les vulnérabilités aux cyberattaques au cours du cycle de vie des systèmes d'intelligence artificielle afin de garantir la sûreté et la sécurité humaines, environnementales et des écosystèmes.
L'énonciation de normes durables pour protéger la confidentialité des données d'accès, qui améliorent le développement et la validation de modèles d'intelligence artificielle qui utilisent des données fiables, conduira à des processus plus sûrs.
III. Justice et non-discrimination
Les développeurs d'intelligence artificielle ont la responsabilité de promouvoir la justice sociale, en garantissant l'égalité et l'absence de toute discrimination, ce qui implique une stratégie inclusive pour garantir que les avantages des technologies d'intelligence artificielle sont accessibles à tous, en tenant compte des besoins des différents groupes et minorités.
Que les avantages des technologies d'intelligence artificielle soient accessibles à tous, en tenant compte des besoins des différents groupes et minorités, et en veillant à ce que toutes les communautés aient un accès inclusif aux systèmes d'intelligence artificielle, dans le respect du multilinguisme et de la diversité culturelle.
Tout doit également être mis en œuvre pour réduire au minimum et empêcher la poursuite d'applications et de résultats discriminatoires ou biaisés dans les systèmes d'IA, lorsqu'ils se produisent, afin de garantir l'équité de ces systèmes tout au long de leur cycle de vie, et il est essentiel de lutter contre les discriminations et les préjugés fondés sur les algorithmes.
IV. Durabilité
La mise en œuvre des technologies d'intelligence artificielle peut avoir un impact positif ou négatif sur les objectifs de durabilité, selon la manière dont elles sont mises en œuvre, il est donc crucial de surveiller en permanence les effets des technologies d'intelligence artificielle dans divers secteurs de la durabilité.
V. Droit à la vie privée et à la protection des données
Le droit à la vie privée et à la protection des données est essentiel pour garantir la dignité et l'indépendance des individus et doit être sauvegardé, protégé et encouragé tout au long du processus de création de systèmes d'intelligence artificielle. Il est essentiel que les informations soient recueillies, utilisées, partagées, stockées et éliminées conformément au droit international. Il est essentiel de définir des normes et des procédures de bonne gouvernance, adaptées à la protection des données, tenant compte des différents intérêts, protégées par les systèmes juridiques et garanties tout au long du cycle de vie des systèmes d'Intelligence Artificielle. Les principes et normes internationaux relatifs à la collecte, à l'utilisation et à la divulgation des données personnelles doivent être appliqués aux normes de protection des données, en plus de garantir les droits des personnes concernées, avec une base juridique valable et un objectif légitime. L'analyse de l'impact des algorithmes sur la vie privée doit tenir compte des éléments sociaux et éthiques, en encourageant une perspective innovante de la vie privée dans la conception. Les développeurs d'intelligence artificielle doivent garantir la protection des informations personnelles tout au long du cycle de vie des systèmes.
VI. Supervision humaine et détermination
La supervision humaine et la détermination sont essentielles. Je dirais sine qua non. Il est crucial que la possibilité d'une responsabilité éthique et juridique soit garantie à toutes les étapes des systèmes d'intelligence artificielle, ainsi que dans les procédures judiciaires impliquant des personnes ou des entités liées à ces systèmes. La surveillance humaine peut inclure à la fois une surveillance individuelle et une surveillance publique inclusive, le cas échéant. Finalement, les gens peuvent choisir de faire confiance aux systèmes d'intelligence artificielle en raison de leur efficacité, cependant, la responsabilité et la reddition de comptes ultime resteront humaines dans des situations spécifiques. Il est généralement plus avantageux pour les systèmes d'intelligence artificielle de ne pas être responsables de la prise de décisions qui impliquent la vie ou la mort.
VII. Transparence et clarté
La clarté et la compréhension sont essentielles dans les systèmes d'intelligence artificielle pour garantir que les droits de l'homme, les libertés essentielles et les principes éthiques sont respectés, sauvegardés et promus. La transparence est donc cruciale pour le bon fonctionnement des systèmes de responsabilisation, et son manque peut compromettre la possibilité de remettre correctement en question les décisions basées sur les résultats produits par les systèmes d'intelligence artificielle. Il est crucial de s'assurer que son niveau est adapté au contexte et à l'impact, en l'équilibrant avec d'autres principes tels que la confidentialité et la sécurité. Il est essentiel de veiller à ce que les personnes soient pleinement informées des décisions prises à l'aide d'algorithmes d'intelligence artificielle, en particulier si ces décisions ont un impact sur leur sécurité ou leurs droits humains, et qu'elles puissent demander des éclaircissements aux entités responsables. Les acteurs doivent également informer clairement les destinataires de l'utilisation de l'intelligence artificielle, de manière appropriée et au moment opportun.
Dans le contexte des systèmes d'intelligence artificielle, la clarté aide les individus à comprendre comment chaque étape du système est menée, compte tenu du contexte et de la sensibilité du système d'IA, et peut inclure des informations sur les facteurs qui ont une incidence sur une prédiction ou une décision spécifique, ainsi que sur la garantie de garanties appropriées, telles que des actions de sécurité ou de justice, qu'elles soient en place.
VIII. Responsabilité et reddition de comptes
Les développeurs de systèmes d'intelligence artificielle doivent respecter, protéger et encourager les droits de l'homme et les libertés fondamentales. Ils doivent également adhérer à des principes éthiques à toutes les étapes de la vie des systèmes d'intelligence artificielle et attribuer aux responsables des différentes étapes l'obligation morale et la responsabilité des décisions et des actions liées à un système d'intelligence artificielle. Il est nécessaire de mettre en place des mécanismes de suivi, d'évaluation et d'audit pour garantir la redevabilité des systèmes d'Intelligence Artificielle et de leurs conséquences.
IX. Sensibilisation
Il est crucial d'encourager le public à comprendre les technologies d'intelligence artificielle et la valeur des données, des compétences numériques et de la formation à l'éthique de l'IA.
La formation devrait être dispensée conjointement par diverses organisations, compte tenu de la diversité présente, afin d'assurer la participation du public et de le protéger contre toute influence indue.
X. Gouvernance et collaboration adaptables et multipartites
Lors de l'utilisation des données, il est crucial de respecter le droit international et la souveraineté nationale, en encourageant une gouvernance flexible et une coopération multipartite. Il est crucial d'impliquer diverses parties prenantes tout au long du cycle de vie des systèmes d'intelligence artificielle afin d'assurer une gouvernance inclusive et de distribuer équitablement les avantages, contribuant ainsi à un progrès durable. Les groupes concernés comprennent, sans s'y limiter, les gouvernements, les organisations intergouvernementales, la communauté technique, la société civile, les universitaires et les instituts de recherche, les médias, l'éducation, les autorités politiques et les entreprises du secteur privé.
Défis et opportunités de l'intégration de l'intelligence artificielle dans les mesures d’exécution forcée.
Le travail des agents d'exécution dans le cadre de l'exécution forcée et du recouvrement de créances est inextricablement un travail exercé par des êtres humains et, pour la plupart, par d'autres êtres humains.
Cela signifie-t-il que l'applicabilité de l'intelligence artificielle dans les mesures d’exécution forcée est immédiatement limitée à de simples algorithmes qui, à leur tour, doivent intrinsèquement obéir aux principes discutés ci-dessus, ou l'intelligence artificielle remplacera-t-elle les êtres humains, nous en tant qu'agents d’exécution ou un juge ?
En circonscrivant le champ de notre intervention dans l'action de répression, nous pouvons partir du point relatif où l'Intelligence Artificielle, au sens large du terme, pourrait remplacer un Agent d'exécution dans son travail.
La technologie s'est avérée être un outil prometteur pour soutenir l'application de la justice, en simplifiant et en accélérant divers processus qui étaient auparavant menés mécaniquement par des êtres humains. De même, la numérisation et la dématérialisation ont permis de les appliquer plus rapidement et plus efficacement. Parallèlement à cela, l'intelligence artificielle va plus loin, étant capable d'effectuer des tâches encore plus complexes avec une grande précision et son application est déjà une réalité dans le secteur judiciaire, bien que toujours discrètement.
Avec l'émergence des nouvelles technologies et leur diffusion, le droit a suivi cette avancée, avec la création de systèmes de procédures numériques et de systèmes automatisés de recherche d'actifs. Ces technologies offrent divers avantages pour l'ensemble de la structure judiciaire, notamment la rapidité et la sécurité pour tous les acteurs du processus. Malgré les craintes initiales et les difficultés de mise en œuvre, ces ressources commencent maintenant à être largement utilisées, apportant plus d'avantages que d'inconvénients.
La technologie a évolué au point où l'intelligence artificielle a émergé, dont l'objectif principal est d'effectuer des tâches effectuées par l'homme plus efficacement et plus rapidement. Pour améliorer encore les instruments d'appui à la justice, il faudra faire évoluer cette technologie en faveur du droit, mais toujours de manière discrète et expérimentale.
Dans ce scénario, l'utilisation de l'intelligence artificielle pour effectuer des tâches répétitives et standardisées pourrait être une stratégie pour améliorer son efficacité. Cependant, il est essentiel de considérer les préoccupations résultant de la manipulation constante des données, la possibilité de distorsion de leur utilisation ou de leur algorithme, ainsi que l'absence de législation spécifique en la matière.
Cependant, la création d'une intelligence artificielle pour rechercher les actifs des débiteurs et d'autres activités mécaniques et répétitives dans les exécutions est une option prometteuse pour augmenter l'efficacité et réduire le temps consacré à ces recherches.
Un autre problème serait l'utilisation de l'intelligence artificielle, en contradiction flagrante avec le Règlement général sur la protection des données, pour collecter des informations permettant d'établir des modèles de comportement par rapport à un individu particulier.
Un exemple où l'intelligence artificielle a une applicabilité immédiate dans l'action exécutive, tout en respectant les principes éthiques énoncés ci-dessus, concerne la conduite des procédures, dès le départ. Si l'on devait faire le parallèle avec un « smart contract » (qui utilise la technologie blockchain, comme nous le savons), l'Intelligence Artificielle surveillerait toutes les étapes du processus d'exécution, en analysant d'emblée l'acte de procédure, le titre exécutoire, la correspondance avec le défendeur, les étapes ultérieures, le respect des exigences légales, notamment celles qui sont garanties procéduralement, la phase de vente, le calcul du compte de cas, entre autres, mais ?
Mais... toujours dépendant de la surveillance humaine et du sceau de l'agent d'exécution, qui finirait par valider ses conclusions.
Il reste cependant un long chemin à parcourir, à commencer par la disposition légale relative à sa recevabilité, et une grande majorité des juges portugais estiment que l'utilisation de l'intelligence artificielle dans les tribunaux comporte « de graves risques de déformation et de déshumanisation de la justice ».
Dans le système juridique portugais, l'utilisation de robots est expressément interdite dans les procédures d'exécution, et les agents d'exécution qui les utilisent dans le cadre de leur travail sont lourdement sanctionnés
En d'autres termes, la solution proposée ne peut être autre chose qu'une autorisation humaine finale pour toutes les actions qui ont un impact sur la vie des gens.
© Reproduction interdite, sauf autorisation écrite préalable
newsid:491234