Lecture: 8 min
N1191B3I
Citer l'article
Créer un lien vers ce contenu
par Marc Schmitz (BE), Président de l’Union Internationale des Huissiers de Justice (UIHJ)
le 18 Décembre 2024
Mots-clés : Intelligence Artificielle (IA) • Justice automatisée • exécution des décisions • droits humains • éthique et transparence • protection des données • responsabilité algorithmique • déshumanisation • biais algorithmiques • supervision humaine • transformation numérique • huissiers de justice • commissaire de justice • CEPEJ (Commission européenne pour l'efficacité de la justice) • égalité d'accès à la justice • RGPD (Règlement général sur la protection des données)
Cet article est issu d’un dossier spécial consacré à la publication des actes du 3ème Forum mondial sur l’exécution intitulé « L’intelligence artificielle, droits humains et exécution des décisions de justice en matière civile et commerciale : quelles garanties pour les justiciables ? », organisé par l’Union International des Huissiers de Justice (UIHJ) et par la Commission pour l’Efficacité de la Justice (CEPEJ) et qui s’est tenu le 2 décembre 2024 au Palais de l’Europe de Strasbourg.
Le sommaire de ce dossier est à retrouver en intégralité ici : N° Lexbase : N1264B39
L'adoption croissante de l'intelligence artificielle (IA) et des systèmes automatisés dans les processus juridiques pose de nombreux défis, mais offre également des opportunités. La question du respect des droits humains dans un environnement juridique automatisé est centrale et soulève des problématiques éthiques, juridiques et techniques. Garantir ces droits dans un tel contexte implique une réflexion sur plusieurs axes clés.
L'une des principales préoccupations concernant l'IA dans les processus juridiques est le manque de transparence et d'explicabilité des algorithmes utilisés.
Les décisions automatisées doivent être compréhensibles par les individus concernés, en particulier lorsqu'elles influencent des droits fondamentaux (L’article 6 de la Convention européenne des droits de l’Homme et des liberté fondamentales N° Lexbase : L7558AIR le droit à un procès équitable, mais aussi l’article 8 N° Lexbase : L4798AQR: le droit à la vie privée et familiale, etc.). Les systèmes d'IA, notamment ceux reposant sur des modèles d'apprentissage profond, sont souvent perçus comme des « boîtes noires » en raison de la complexité des processus décisionnels internes.
Pour garantir les droits humains, il est essentiel, selon notre humble avis, de pouvoir documenter les décisions prises par les algorithmes pour permettre une vérification humaine.
Mais il faut aussi et surtout rendre les algorithmes explicables afin que les parties concernées et les acteurs juridiques puissent comprendre comment les conclusions prises par l’IA sont tirées.
Les systèmes d'intelligence artificielle sont sensibles aux biais, en particulier ceux provenant des données utilisées pour leur apprentissage. Si un algorithme est entraîné sur des données historiques biaisées ou incomplètes, cela peut entraîner des discriminations. Un exemple marquant de la sensibilité des systèmes d'intelligence artificielle aux biais se trouve dans le domaine de la justice pénale aux États-Unis, avec l'utilisation de l'algorithme « COMPAS » (Correctional Offender Management Profiling for Alternative Sanctions). Cet outil est utilisé pour évaluer le risque de récidive d'un individu, influençant ainsi des décisions comme l'octroi de la liberté conditionnelle ou la détermination de la durée d'une peine.
Une enquête menée en 2016 a révélé que l'algorithme « COMPAS » affichait des biais raciaux significatifs. Selon l'enquête, il avait tendance à attribuer des scores de risque plus élevés aux afro-américains, même lorsqu'ils ne récidivaient pas, tandis qu'il sous-estimait le risque pour les personnes blanches, qui étaient parfois plus susceptibles de récidiver. Ce biais provient du fait que l'algorithme est entraîné sur des données historiques de condamnations, qui reflètent des disparités raciales dans le système de justice pénale [1].
Ainsi, l'algorithme, en reproduisant des préjugés historiques et en amplifiant les disparités existantes, a conduit à des décisions discriminatoires affectant la liberté des individus, illustrant bien comment un algorithme biaisé peut perpétuer des discriminations lorsqu'il est formé sur des données biaisées ou incomplètes.
Cette problématique est d'autant plus préoccupante dans des domaines tels que la justice pénale où des décisions inéquitables peuvent avoir un impact sur la liberté d'une personne.
Mais comment limiter ces risques ?
Auditer régulièrement les systèmes d'IA pour identifier et corriger les biais devient certes indispensable, mais il va de soi que l’établissement de protocoles anti-discrimination stricts lors de la conception et de la mise en œuvre des technologies automatisées est un élément incontournable dans la limitations de ces risques.
Dans un environnement automatisé, la question de la responsabilité devient évidemment complexe et dépend de plusieurs facteurs, notamment le contexte d'utilisation, les lois en vigueur, et la chaîne de conception et d'utilisation de l'IA.
Qui est responsable en cas d'erreur prise par une IA ? Le concepteur de l'algorithme, l'entité qui l'a mis en œuvre, ou l'autorité qui l'utilise ?
Les entreprises ou individus qui conçoivent et développent l'algorithme peuvent être tenus pour responsables si une erreur résulte d'un défaut dans la conception de l'IA. Cela inclut des erreurs dans la programmation, un manque de rigueur dans le choix des données d'entraînement, ou l'absence de mesures visant à atténuer les biais ou discriminations.
L'entité qui commercialise ou fournit le système d'IA peut aussi être responsable, surtout si elle ne communique pas correctement les limites du système ou si elle ne fournit pas une assistance technique adéquate pour assurer une utilisation correcte. Dans certains cas, des clauses contractuelles peuvent stipuler des limites à cette responsabilité, mais elles ne suffisent certes pas à la supprimer complètement.
L'utilisateur final, en l’occurrence l’huissier de justice, peut être responsable des erreurs de l'IA, surtout si elle est mal utilisée ou employée dans un contexte pour lequel elle n'était pas conçue.
Il est évident que tant que les régulations en matière l’IA ne sont pas uniformes à l'échelle mondiale, il est probable que la question de la responsabilité continuera à évoluer au fur et à mesure que les systèmes d'IA se développent et que les législations s'adaptent à ces nouvelles technologies.
Il va de soi que les citoyens doivent conserver des moyens de recours efficaces en cas de décisions automatisées incorrectes ou discriminatoires.
Cela implique un cadre juridique clair qui établit la responsabilité en cas de dommage causé par une IA et – évidemment - des mécanismes de recours accessibles permettant aux individus de contester une décision prise par une machine.
Les systèmes automatisés dans le droit ne doivent pas opérer sans une supervision humaine adéquate. Le contrôle humain est essentiel pour garantir que les décisions prises respectent non seulement la loi, mais aussi les principes éthiques et les droits humains.
Ceci nécessite une formation continue des professionnels du droit sur les nouvelles technologies et leurs implications est essentielle pour maintenir un contrôle judiciaire pertinent.
Garantir les droits humains dans un environnement juridique automatisé exige une approche proactive et multidisciplinaire. Cela nécessite une régulation claire, une surveillance humaine constante, une conception éthique des technologies, et des mécanismes robustes de protection contre les abus et discriminations. Le défi est non seulement de s'assurer que l'automatisation ne porte pas atteinte aux droits fondamentaux, mais plutôt qu'elle renforce l'accès à la justice et la protection des droits.
Les systèmes automatisés reposent souvent sur la collecte et l'analyse de vastes quantités de données personnelles. Cela peut créer des tensions avec les droits à la vie privée. Il est nécessaire de protéger ces informations contre toute utilisation abusive ou violation.
Dans ce contexte, le respect des réglementations sur la protection des données, telles que le RGPD en Europe , mais aussi des mécanismes de sécurité solides pour protéger les bases de données utilisées par les systèmes juridiques automatisés deviennent indispensables.
L'automatisation pourrait, en théorie, améliorer l'accès à la justice en rendant les services juridiques plus rapides et moins coûteux. Toutefois, il existe aussi un risque d'accentuation des inégalités si les systèmes automatisés sont inaccessibles à certaines populations, par exemple en raison d'un manque de compétences numériques ou de moyens financiers.
Conclusion
En conclusion, nous estimons qu’il est crucial que les systèmes automatisés soient conçus dès le départ avec une approche centrée sur les droits humains. Cela signifie que les droits fondamentaux doivent être considérés à toutes les étapes, de la conception à l’implémentation, en passant par l’utilisation des technologies.
Avant de déployer un système automatisé dans un cadre juridique, une évaluation rigoureuse de son impact potentiel sur les droits humains doit être réalisée.
Mais est-il concevable que les groupes de défense des droits humains, les juristes et la société civile soient impliqués dans la conception des systèmes pour garantir que les besoins et les préoccupations des citoyens soit pris en compte ?
La garantie des droits humains dans un environnement juridique automatisé repose sur un équilibre délicat entre l'efficacité technologique et la protection des principes fondamentaux. L'adoption de pratiques telles que la transparence des algorithmes, l'inclusivité des données, la supervision humaine et la redevabilité est cruciale pour construire des systèmes juridiques automatisés justes et éthiques.
À travers ses actions, l’huissier de justice joue un rôle essentiel dans la préservation de l'harmonie sociale et dans l'assurance que la justice demeure accessible à tous, y compris aux membres les plus vulnérables de notre société. Cet aspect humain de notre profession est ce qui lui confère sa force et sa pérennité dans un monde en constante évolution.
Dans un environnement en mutation rapide, marqué par les avancées technologiques et les défis organisationnels, l'huissier de justice demeure au cœur du système judiciaire moderne.
En travaillant ensemble, en favorisant la collaboration interprofessionnelle et en soutenant l'innovation dans nos pratiques, nous pouvons non seulement renforcer notre profession, mais aussi garantir les droits humains dans un environnement juridique automatisé.
C'est ainsi que nous serons en mesure de construire une justice qui soit non seulement efficace, mais également juste et inclusive, respectant ainsi les besoins de tous, sans exception.
[1] ProPublica, J. Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner, Machine Bias, publié le 23 mai 2016.
© Reproduction interdite, sauf autorisation écrite préalable
newsid:491191