Charte éthique et fonctionnelle de l’intelligence artificielle appliquée au Droit chez Lexbase

Précurseur dans l’intelligence artificielle appliquée au Droit, notre maître-mot a toujours été celui de l’innovation au service de la Doctrine.

Innover, c’est inventer de nouvelles solutions qui n’existent nulle part ailleurs et défricher de nouveaux marchés.

Nous nous efforçons ainsi de trouver des nouvelles applications « métier » dans un domaine en constante évolution.

En Droit comme en intelligence artificielle (« IA »), nous revenons toujours à l’essentiel : le soin du détail et la fiabilité des sources vérifiables.

C’est dans la continuité de cette approche que nous proposons notre charte éthique et fonctionnelle de l’Intelligence Artificielle appliquée au Droit.

1- Transparence et explicabilité

Lexbase fait ses meilleurs efforts pour rendre explicables les méthodes mises en place pour l’IA appliquée au Droit et notamment l’IA générative. Lexbase intègre dans ses résultats des « indicateurs de confiance » pour éclairer l’utilisateur sur le degré de probabilité du résultat proposé.

Lexbase est en mesure de recevoir différentes parties prenantes pour leur expliquer les principales méthodes mise en place pour les algorithmes, les différents langages utilisés, avec leurs tenants et aboutissants, si nécessaire dans le cadre d’un audit indépendant et/ou d’un non disclosure agreement.

Lexbase emploie un maximum de modèles Open Source qu’elle maîtrise, adaptés en finesse avec ses équipes « métier », et exploite sur ses propres serveurs à Paris pour les calculs principaux. Ces serveurs peuvent également être visitables dans certains cas de figure.

2- Sécurité et confidentialité

Pour fonctionner efficacement, l’IA se nourrit de diverses données, dont des données sensibles, ce qui pose nécessairement la question de leur protection.

Tous nos serveurs sont situés en France et en Allemagne, et sont répartis selon plusieurs opérateurs, américains et français.

Au-delà des serveurs, quand bien même un modèle propriétaire indique que les données téléchargées ne seront pas réutilisées, cette assertion n’est pas prouvable. Le seul moyen de le garantir est, soit d’anonymiser les données au préalable, soit de faire tourner un modèle open source sur ses propres instances (soit notre propre data center, soit un cloud souverain qui n’est pas soumis au Patriot Act).

Chez Lexbase, pour nos tests et itérations, nous utilisons à ce jour des modèles open source dans le data center situé dans nos locaux.

Des protocoles de sécurité « maison » et robustes sont mis en place par nos équipes techniques, que ce soit sur notre data center, ou dans les cloud que nous utilisons.

Lexbase réaffirme son engagement à la protection de la confidentialité des données soumises par l’utilisateur, garantie par les règlementations européennes en vigueur, notamment le Règlement général sur la protection des données.

3- Fiabilité et traçabilité des sources

Lorsque Lexbase utilise des systèmes d’intelligence artificielle pour analyser des documents juridiques ou s’enquérir d’informations en matière de droit, la fiabilité et la traçabilité des sources sont des aspects fondamentaux à prendre en considération.

On attend par « fiabilité », la garantie que les données utilisées pour l’analyse sont précises et authentiques, une valeur primordiale dans un domaine où chaque détail peut avoir des conséquences importantes sur la vie des justiciables.

La traçabilité des sources permet quant à elle de retracer l’origine de chaque information utilisée dans le processus d’analyse, offrant ainsi une exactitude essentielle pour comprendre comment les réponses ont été obtenues. Elle permet aussi de garantir la légalité des sources d’approvisionnement.

Lexbase met au cœur de son ouvrage le concept de sécurité juridique et, à ce titre, lie dans la plupart des cas ses résultats proposés aux des sources du droit en vigueur. L’utilisateur peut vérifier de lui-même l’exactitude des informations et prendre une décision éclairée

La légitimité des sources pose également la question de leur mise à jour régulière. Un grand modèle de langue (« LLM ») fournit une réponse probabilistique à une question, dans sa base de données d’apprentissage. Or si tout ou partie de cette base, pour chacune des matières juridiques, est obsolète, la réponse pourra être de facto imprécise, voire erronée.

Dans cette continuité de sécurité juridique, Lexbase fait ses meilleurs efforts pour anticiper ce risque avec ses méthodes de « versionning » consistant à filtrer les documents pour ne conserver que le droit en vigueur et ainsi retirer les documents désuets. Dans cette tâche, son expertise métier et ses équipes rédactionnelles qui rédigent la Doctrine jouent un rôle déterminant.

4- Responsabilité et contrôle humain

A la vue des développements toujours plus poussés des exploits de l’IA générative, il est capital d’affirmer que son utilisation ne doit en aucun cas remplacer le jugement humain, mais plutôt le compléter.

Si aujourd’hui, l’IA offre des gains de temps considérables dans la réalisation de certaines tâches, elle doit se cantonner à un rôle d’assistant dans la recherche. L’objectif est que le professionnel du Droit puisse dédier son temps à des prestations intellectuelles sur lesquelles repose la valeur de son argumentation.

Ces professionnels doivent rester maîtres de leurs choix, conserver un œil critique face aux propositions faites par l’IA et garder le contrôle sur l’application qu’ils font des résultats produits par ces systèmes.

Le design des réponses de l’IA générative doit les aider en ce sens : d’où la nécessité de présenter des sources qui existent, celle de donner des indicateurs de fiabilité et celle d’assurer une formation et un accompagnement constant de l’utilisateur.

5- Équité et neutralité

Les concepteurs de produits et les professionnels du Droit doivent veiller à ce que l’utilisation de l’IA générative ne contribue pas à renforcer les biais existants dans le système juridique. Un danger réside aujourd’hui dans les biais d’apprentissage de l’IA qui peuvent mener à des réponses empreintes de stéréotypes ou véhiculant des préconceptions.

Pour cela, Lexbase s’appuie sur des équipes de juristes et anciens professionnels du Droit pour concevoir les fonctionnalités utiles, sélectionner les échantillons de données à utiliser, réaliser et valider les tests de réseaux de neurones. Lexbase adopte un ensemble de méthodes diversifiées pour réduire les risques de discrimination. Nos algorithmes sont ainsi développés en prenant en considération la spécificité du Droit français puis adaptés / fine tunés sur la base de sets d’échantillons larges et variés de décisions, textes de loi, Doctrine, etc. afin de promouvoir autant que faire se peut une neutralité dans les résultats.

6- Formation et sensibilisation

Il est essentiel de prévoir des programmes de formation et de sensibilisation pour les professionnels du Droit afin de les familiariser avec l'utilisation de l'IA générative et de les aider à comprendre ses implications éthiques, sociales et juridiques. Cela contribue à promouvoir une utilisation responsable de la technologie et à prévenir les abus.

Lexbase propose des formations présentielles ou mixtes sur l’intelligence artificielle appliquée au droit, qui sont dispensées gratuitement aux utilisateurs. L’objectif de ces conférences, adaptées selon l’audience, repose sur l’explication didactique des applicatifs concrets qui existent aujourd’hui en intelligence artificielle.

7- Réactivité

La réactivité est primordiale pour adapter rapidement, d’une part, les nouvelles technologies au monde du Droit, et d’autre part, les pratiques juridiques aux évolutions constantes de l'IA générative.

Pour cela, il convient de leur apporter un accompagnement prompt et adéquat.

Cette exigence de réactivité doit s’appliquer également aux prestataires de service tels que Lexbase qui met en place des aides en ligne et une assistance téléphonique pour apporter des réponses réactives aux utilisateurs.