Le Quotidien du 4 janvier 2024 : Avocats/Déontologie

[Le point sur...] Avocats et modèles génératifs - Réflexions sur une utilisation responsable et déontologique

Lecture: 44 min

N7851BZS

Citer l'article

Créer un lien vers ce contenu

[Le point sur...] Avocats et modèles génératifs - Réflexions sur une utilisation responsable et déontologique. Lire en ligne : https://www.lexbase.fr/article-juridique/103681911-0
Copier

par Warren Azoulay, Avocat au barreau de Marseille, Docteur en Droit Pénal & Sciences Criminelles, Enseignant-Chercheur Université Aix-Marseille

le 05 Janvier 2024

« Les principes essentiels de la profession guident le comportement de l’avocat en toutes circonstances.

L’avocat exerce ses fonctions avec dignité, conscience, indépendance, probité et humanité, dans le respect des termes de son serment.

Il respecte en outre, dans cet exercice, les principes d’honneur, de loyauté, d’égalité et de non‑discrimination, de désintéressement, de confraternité, de délicatesse, de modération et de courtoisie.

Il fait preuve, à l’égard de ses clients, de compétence, de dévouement, de diligence et de prudence. »

1. Introduction. Se plonger dans une écriture que l’on dédie aux mathématiques, à l’informatique théorique, aux questions de logique, ou encore aux sciences cognitives et techniques n’a rien de nouveau. Depuis les premiers balbutiements de la pensée humaine, l’exploration des concepts mathématiques a toujours été une quête destinée à comprendre le fonctionnement du monde qui nous entoure. C’est en revanche au cours du XXe siècle que l’avènement de l’informatique et des techniques numériques a radicalement transformé notre approche de la résolution de problèmes complexes.

L’évolution des machines, des paradigmes de calcul et l’étude des révolutions scientifiques ont ouvert la voie à une méthode dont l’expansion ne cesse de s’intensifier : l’intelligence artificielle. De la théorie des automates aux premiers ordinateurs, en passant par les pionniers de l’apprentissage automatique, l’histoire de l’intelligence artificielle est marquée par des avancées profondes et des défis intellectuels toujours plus ambitieux.

Elle ne se limite pas à une simple fusion des mathématiques, de la statistique et de l’informatique, mais représente une quête incessante dont la prétention est de doter les machines de la capacité de penser, de façon fort différente de la pensée humaine et, de son concept controversé en philosophie, d’apprendre et de résoudre des problèmes de manière similaire, voire spectaculairement supérieure, à celle des êtres humains.

L’on peut même lire un morceau de cette histoire captivante dans les travaux du mathématicien perse Muhammad Ibn Mūsā al‑Khuwārizmī [1], auteur au IXe siècle du Livre de l’addition et de la soustraction d’après le calcul indien, qui établissait une classification des algorithmes existants et utilisés depuis l’Antiquité [2]. Le nom d’alKhuwārizmī aurait alors donné le mot « algorithme », attesté en français dès 1230 dans sa forme archaïque « augorisme » [3] visant à qualifier une « suite d’opérations ordonnées sur un nombre plus ou moins important de données » [4] afin d’obtenir un résultat déterminé.

Quant aux recherches théoriques contemporaines sur l’apprentissage automatique, celles‑ci démarrent il y a plus d’un demi‑siècle, en France comme outre‑Atlantique. Les modèles génératifs existeraient donc depuis des décennies [5]. En 1950 déjà, alors qu’il travaillait sur la décidabilité en arithmétique, c’est‑à‑dire sur des problèmes de décision, Alan Turing considérait que « d’ici cinquante ans, il n’y aura plus de moyen de distinguer les réponses données par un homme ou un ordinateur » [6].

Nous y arrivons, et l’on a pu lire, dans la dernière édition du Manuel d’introduction générale au droit des professeurs François Terre et Nicolas Molfessis que si ces métiers du droit, qu’ils soient avocat, notaire, magistrat, commissaire de justice, commissaire de police ou autres, sont jusqu’ici pratiqués par des humains, « l’essor de l’intelligence artificielle et les performances de ChatGPT incitent à reconsidérer cette donnée fondamentale, si évidente qu’elle ne méritait pas même, jusqu’alors d’être soulignée » [7].

Génération d’œuvres d’art, de musiques, de contrats, de conclusions, et même de jurisprudences, si la demande est formulée ou que l’algorithme en ressent la nécessité pour argumenter, les possibilités offertes par l’intelligence artificielle ne semblent plus avoir de limites, y compris dans le domaine juridique. Techniques basées sur des algorithmes avancés destinés à rédiger des contrats, répondre à des courriels, résumer des procès‑verbaux, chiffrer des préjudices ou encore générer des consultations juridiques, les fantasmes et les retours utilisateurs foisonnent sur ces outils, notamment depuis la mise à disposition de la première version de ChatGPT [8], générateur de contenu spécialisé dans le dialogue et développé par la société OpenAI [9], mis à disposition du grand public en début d’année 2023.

L’intelligence artificielle de ces outils étant toutefois plus performante à mesure qu’elle intègre de la donnée, et devenant rapidement une boîte noire complexe dont il est retors, pour ne pas dire impossible, de savoir la façon dont elle fonctionne, l’utilisation des modèles génératifs interroge directement l’avocat tant dans le processus d’alimentation de la machine que dans la réutilisation de ses productions, lorsqu’il la passe au filtre de sa responsabilité (I) et de sa déontologie (II).

I. L’avocat et les modèles génératifs : une responsabilité double

La production de contenus juridiques par l’avocat utilisateur de modèles génératifs interroge directement sa responsabilité civile professionnelle lorsqu’ils les emploient, parfois même sans réellement savoir la façon dont ils fonctionnent (A). Omniprésente lorsqu’il s’agit de réguler les comportements sociaux, la pénalité qui entoure le numérique, les traitements automatisés de données et la protection des données personnelles, nécessite une incursion dans le volet répressif du mésusage de ces outils nouveaux (B).

A. Recto : responsabilité civile professionnelle et modèles génératifs

2. Une responsabilité jeune. La question de la responsabilité civile de l’avocat n’est pas tellement ancienne. Elle est même plutôt récente. Contrairement à d’autres sujets connus des juristes, qu’il s’agisse des praticiens ou de la doctrine, et qui font l’objet de controverses depuis des siècles, les conditions d’exercice de la profession d’avocat ont été profondément modifiées depuis, notamment, la loi du 31 décembre 1971 [10]. Avant cette date, l’avocat ne représentait son client que de façon relativement exceptionnelle. Il n’intervenait pas non plus, ou très peu, par exemple, dans le maniement des fonds.

La principale explication est historique en ce qu’existait la cohabitation de deux professions, celle d’avocat d’une part, et celle d’avoué d’autre part. De cette division des tâches résultait un transfert de responsabilité supportée par l’avoué seul. C’est qu’en effet, la représentation en justice consiste à assurer l’exécution d’un mandat, le mandataire étant tenu de rendre compte. Or, historiquement, l’avocat, homme libre, ne représentait pas le citoyen en justice. Il l’assistait.

Seconde conséquence de cette séparation très nette, la déontologie de l’avocat lui interdisait formellement d’accepter toute procuration, sauf à titre exceptionnel, telle que celle qui lui aurait été donnée à titre gracieux par un parent. La question de l’indépendance de l’avocat vis‑à‑vis de son client avait donc un sens bien plus puissant que celui qu’il peut avoir aujourd’hui.

Les questions relatives à sa responsabilité n’étaient donc pas aussi fréquentes, contrairement à la responsabilité disciplinaire qui, pour sa part, est bien plus ancienne.

Au‑delà du caractère particulièrement jeune des textes existant sur la question, ses rédacteurs n’ont pas été des plus exhaustifs quant aux occurrences que l’avocat peut être amené à rencontrer. C’est donc parfois à mesure que les difficultés se présentent, et doivent être tranchées, que la jurisprudence en la matière se développe. Il en résulte, naturellement, une certaine imprévisibilité de ce qui pourrait constituer une faute, un préjudice, des critères permettant d’apprécier le lien de causalité entre les deux, de la sanction qui pourrait être prononcée et, partant, un problème de sécurité juridique pour l’avocat.

La question de l’utilisation, de la non‑utilisation, ou de la mauvaise utilisation, des outils d’intelligence artificielle générative s’inscrit directement dans le droit fil de cette difficulté.

3. Une profusion d’obligations et de responsabilités pour l’avocat. Certaines obligations auxquelles sont tenus les avocats sont d’ordres textuelles. Ainsi, par exemple, l’avocat tient de l’article 4 de la loi du 31 décembre 1971, précitée [11], le pouvoir et le devoir d’accomplir au nom de son mandant les actes de procédure. C’est la représentation en justice. Il a également le pouvoir et le devoir de conseiller la partie et de présenter sa défense sans l’obliger [12]. C’est l’assistance en justice. Il est également précisé que « le mandat de représentation emporte mission d’assistance, sauf disposition ou convention contraire » [13].

D’autres obligations ont trouvé naissance dans les prétoires, et font directement référence aux principes inscrits dans le Règlement Intérieur National de la profession d’avocat (RIN) N° Lexbase : L4063IP8. Ainsi, à titre d’illustration, la jurisprudence a pu énoncer il y a près d’un siècle, en 1932, le principe selon lequel l’avocat était tenu de choisir le bon moyen, une obligation faisant directement écho au principe de compétence envers le client, lequel a été inséré dans le RIN par un décret du 12 juillet 2005 relatif à la déontologie de l’avocat [14].

De cette façon, un avocat qui n’aurait pas tiré rapidement les enseignements d’un revirement de jurisprudence, pourrait voir sa responsabilité civile être retenue tel qu’il a été décidé dans l’arrêt d’assemblée plénière « Costedoat » du 25 février 2000 [15].

Le parallèle est aisément empruntable lorsque l’on sait que les données sur lesquelles se base ChatGPT, solution sur laquelle se base son pendant de Microsoft, Copilot, pour répondre aux requêtes utilisateurs, datent au mieux de janvier 2022. Il suffit alors de lui demander, à la date de publication de ce présent article, « qui est le nouveau Président du Conseil national des barreaux en France ? » pour que l’agent conversationnel réponde :

« Je n'ai pas d'informations en temps réel, car ma dernière mise à jour de données est en janvier 2022. À cette date, la présidente du Conseil national des barreaux (CNB) en France était Christiane Féral‑Schuhl. »

Outre la non mise à jour de sa base de données, nous relèverons qu’au 1er janvier 2022, le Président du CNB était Maître Jérôme Gavaudan, élu pour la mandature 2021‑2023, et que l’information selon laquelle la mandature du 1er janvier 2024 au 31 décembre 2026 sera exercée par Maître Julie Couturier lui est inconnue. ChatGPT a donc non seulement un problème de mise à jour, mais ce qu’il énonce est également faux.

En partant de l’affirmation selon laquelle un avocat qui ne tiendrait pas compte « rapidement » d'un revirement de jurisprudence risque de voir sa responsabilité civile professionnelle être retenue, il est concevable d'envisager que le conseil qui use d’un outil doté d'informations obsolètes et de résultats hasardeux engage sa responsabilité lui aussi.

4. Choix du bon moyen et responsabilité civile. S’il pèse sur l’avocat une responsabilité quant à la prestation qu’il fournit, qui se doit d’être de qualité, se pose la question de savoir s’il s’agit d’une obligation de moyen ou de résultat, tout en sachant qu’une position radicale dans la réponse n’existe pas. L’on pourrait considérer, par exemple, que lorsqu’il fournit une prestation en matière de conseil, lors d’une consultation, l’avocat n’est tenu que d’une obligation de moyen, alors qu’en matière de rédaction d’actes, il serait tenu d’une obligation de résultat. La jurisprudence a toutefois retenu qu’en matière de rédaction d’actes, l’avocat pouvait n’être tenu que d’une obligation de moyen [16].

Seconde interrogation qui nous intéresse plus particulièrement : comment l’obligation de choisir les moyens les plus appropriés pour défendre au mieux les intérêts de son client ont‑ils évolués et évolueront‑ils une fois passés par le prisme des avancées technologiques, auxquelles l’avocat est forcément tenu de s’adapter et de mesurer si elles améliorent sa pratique ? Si, par exemple, une institution représentative de la profession, un barreau, un cabinet ou un avocat souscrit à un outil doté d’intelligence artificielle, ou bien que cet outil lui est librement accessible par quelque moyen que ce soit, comme c’est le cas avec ChatGPT et comparses, cela implique‑t‑il de considérer l’outil comme faisant partie intégrante de son arsenal professionnel et, partant, qu’il est formé pour l’utiliser conformément au principe de compétence ? La non utilisation de l’outil, ou son mésusage, soulèveraient d’évidentes questions de responsabilité lorsque l’avocat n’utilise pas ces ressources au soutien des intérêts de ses clients. titre illustratif, sur un autre volet qu’est la contestation d’honoraires, l’on a pu voir émerger dans le contentieux états‑unien des arguments nouveaux selon lesquels l’avocat aurait pu contenir sa facturation au temps passé à la recherche jurisprudentielle en utilisant des outils dotés d’intelligence artificielle.

C’est encore à la lumière de la prudence que l’utilisation des modèles génératifs, pour ne parler que d’eux, doit être filtrée, a fortiori lorsque nous lisons leurs conditions d’utilisation peu rassurantes mais, et c’est à mettre à leur crédit, limpides.

5. OpenAI (ChatGPT) et conditions générales d’utilisation. Dans sa partie « exclusion de garantie », la société OpenAI chasse l’équivoque en ce qu’elle énonce qu’en utilisant l’outil ChatGPT, elle fournit un service « en l’état », sans « aucune garantie ». Elle décline également toute « garantie de qualité, d’absence de contrefaçon et de jouissance paisible ». Elle ne garantit pas non plus « que les services seront exacts ou exempts d’erreurs, ni que tout contenu sera sécurisé ou ne sera pas perdu ou altéré ». Puis, il est conclu en ces termes :

« Vous acceptez et convenez que toute utilisation des résultats de notre service se fait à vos risques et périls. » 

6. Google (BARD) et conditions générales d’utilisation. L’outil de Google, pendant de ChatGPT, ne dispose pas de conditions d’utilisation propres. Il existe tout de même un « avis de confidentialité » spécifique à BARD, décrivant la façon dont Google traite les données des utilisateurs de l’outils. D’emblée est précisé, en gras :

« Veuillez ne pas saisir d'informations confidentielles dans vos conversations avec BARD, ni d'informations que vous ne souhaiteriez pas qu'un réviseur consulte ou que Google utilise pour améliorer ses produits, services et technologies de machine learning. »

L’on y apprend également que les conversations qu’un utilisateur a avec BARD peuvent être examinées, ou annotées, par des réviseurs humains et que celles‑ci ne sont pas supprimées même lorsque l’utilisateur efface son activité BARD. Ces dernières demeurent stockées, quand bien même l’utilisateur aurait‑il suspendu l’enregistrement de son activité BARD.

7. Microsoft (Copilot – Bing Chat) et conditions générales d’utilisation. Peu ou prou similaires, les conditions d’utilisation de Copilot prévoient que l’outil de Microsoft :

« n’est pas exempt d’erreurs, peut ne pas fonctionner comme prévu et peut générer des informations incorrectes. Vous ne devez pas vous fier à Copilot, et vous ne devez pas utiliser Copilot pour obtenir des conseils d’aucune sorte. Votre utilisation de Copilot est à vos propres risques ». 

La firme de Redmond précise encore qu’il ne peut en aucun cas être garanti que Copilot « n’enfreint pas les droits d’un tiers dans toute utilisation ultérieure du contenu que vous pouvez utiliser (y compris, mais sans s’y limiter, le droit d’auteur, marques déposées, droits à la vie privée et à la publicité, et diffamation) ».

8. Limitation de responsabilité. L’avocat pourrait être tenté d’appliquer à la lettre un principe de transparence, qui ne fait pas partie des principes du serment, essentiels [17] ou envers le client, et informer son client de l’utilisation d’outils dotés de modèles génératifs dans le cadre du traitement de son dossier, afin de cimenter sa relation de confiance avec lui. L’occasion lui serait alors donnée d’insérer contractuellement des clauses limitatives de responsabilité liées aux problèmes de sécurité des données, au secret professionnel, ou encore aux erreurs produites uniquement par l’intelligence artificielle. L’introduction de telles clauses nécessite toutefois une analyse prudente en ce qu’elles pourraient créer un déséquilibre injustifié entre les droits et les obligations des parties. La Cour de justice de l’Union européenne a en ce sens pu considérer que le fait, pour un avocat, de limiter sa responsabilité à l’égard de son client constituait une clause abusive [18]. C’est qu’en effet, la convention d’honoraires entre l’avocat et son client se doit de respecter les principes du droit de la consommation.

Une autre difficulté apparaît lorsque l’on sait que l’intervention de plusieurs avocats dans un dossier les rend coresponsables [19] de leurs erreurs.

9. Responsabilité pénale. Enfin, puisqu’il pèse sur lui une double responsabilité dans l’exercice de sa fonction, l’avocat peut également voir sa responsabilité pénale être engagée dans certains cas. Les infractions en question sont éparses, et se retrouvent dans diverses sources, qu’il s’agisse du Code pénal, de celui relatif à la propriété intellectuelle, ou encore des divers textes de droits internes et européens sur la question, pour ne citer qu’eux.  

B. Verso : responsabilité pénale de l’avocat et modèles génératifs

10. Entrainement de modèles et droits d’auteur. L’article L111‑1 du Code de la propriété intellectuelle N° Lexbase : L3636LZP prévoit que « l'auteur d'une œuvre de l'esprit jouit sur cette œuvre, du seul fait de sa création, d'un droit de propriété incorporelle exclusif et opposable à tous ». Toutefois, la seule existence en droit positif d’un texte ne saurait suffire à garantir la protection effective des droits d’auteur. Sa mise en œuvre requiert une compréhension approfondie des circonstances spécifiques de chaque cas, pour conférer au droit son plein potentiel protecteur. La force du droit d’auteur réside non seulement dans sa reconnaissance normative, mais également dans la capacité des acteurs du système juridique et judiciaire à interpréter et à appliquer le texte au cas d’espèce qui leur est soumis. Ainsi, l’efficacité de la protection des droits d’auteurs dépend de la clarté des circonstances des cas, et de la capacité des juridictions et autorités administratives de saisir la complexité inhérente à la propriété intellectuelle.

Le fonctionnement d’un modèle génératif, qu’il s’agisse de réseaux neuronaux ou d’autres approches d’intelligence artificielle, connaît une dichotomie cruciale entre la phase d’apprentissage, c’est‑à‑dire d’entraînement de la solution, et la phase de production, c’est‑à‑dire de génération de contenu. Durant la première, le modèle assimile des données, apprend des schémas ou encore une façon de faire, et ce, afin de développer ses capacités à générer un contenu similaire. Un défi émerge alors lorsqu’il s’agit de garantir que ces données d’entrainement respectent les droits de leurs auteurs et les prescriptions textuelles. Le risque réside dans la possibilité que le modèle soit entraîné avec des données protégées, soulevant des questions sur la légitimité et la légalité de la production ultérieure du modèle. Une préoccupation supplémentaire découle du fait que seule la société fournissant l’outil connaît la nature spécifique des données utilisées, ainsi que leur origine, pendant l’entraînement. Cette opacité soulève d’évidentes préoccupations éthiques et pose un défi de transparence dans l’utilisation des modèles génératifs, soulignant la nécessité d’approches responsables et éthiques dans le développement et la mise en œuvre de ces technologies, à commencer par le fait de former, et de se former.

À titre d’illustration, la loi du 1er août 2006, relative au droit d’auteur et aux droits voisins dans la société de l’information [20], était venue prévoir que les agents publics jouissent sur les œuvres de l’esprit, créées dans l’exercice de leurs fonctions ou d’après les instructions qu’ils ont reçues, d’un droit de propriété intellectuelle exclusif et opposable à tous. Une réserve existe cependant à l’article L131‑3‑1 du Code de la propriété intellectuelle N° Lexbase : L2844HPZ en ce que, dans le cadre de l’accomplissement d’une mission de service public, le droit d’exploitation de l’œuvre peut être, dès la création, cédé de plein droit à l’État, ou faire l’objet d’un contrat de cession dans d’autres cas.

De façon prospective, l’on pourrait ainsi imaginer quelle serait la position de la jurisprudence quant à l’utilisation, par exemple, des conclusions des rapporteurs publics, afin de nourrir des solutions telles que ChatGPT. La même difficulté se pose quant aux mémoires, requêtes et conclusions des avocats, œuvres originales issues de la création intellectuelle, des conseils, qui opèrent nécessairement des choix créatifs et originaux. C’est, en outre, en ce sens que plusieurs auteurs ont assigné OpenAI pour violation du copyright, considérant que l’agent d’OpenAI avait été alimenté par leurs œuvres dès sa première version, GPT‑1, sans leurs consentements.

11. Cybersécurité et responsabilité. Dans ses Normes de sécurité produits, OpenAI affirme s’efforcer « de garantir un développement, un déploiement et une utilisation responsable de l'IA ». Pourtant, la plateforme a bien été victime de plusieurs cyberattaques au cours de l'année 2023 [21], auxquelles elle n’a pas su résister. La dernière en date, particulièrement importante, remonte, à notre connaissance, au mois de novembre 2023 et a été revendiquée, à tort ou à raison, par le groupe Anonymous Sudan. L'attaque a pris la forme d’un déni de service (DDoS), qui consiste à envoyer un nombre massif de requêtes à un serveur afin de le rendre inaccessible. Cette attaque a provoqué une panne de plusieurs heures de la plateforme ChatGPT et a continué de mettre en lumière ses failles de sécurité.

L’on pouvait également apprendre, dans le courant de l’année 2023, que ChatGPT avait été la cible de piratages informatiques et que, par exemple, si les ingénieurs de Samsung s’appuient sur l’outil pour travailler, des données secrètes auraient été divulguées par trois fois lors de requêtes envoyées à ChatGPT. Plus problématique encore, plusieurs fuites de données sensibles ont été constatées du côté d’OpenAI, qu’il s’agisse des titres de conversations créées, mais également du contenu des requêtes qui lui ont été adressées ou encore des données bancaires des abonnés à sa version payante.

Du côté de l’entrainement du modèle, a également été mis en cause l’origine des données elles‑mêmes de ChatGPT contre qui plusieurs plaintes ont été déposées pour avoir aspiré les données personnelles de centaines de millions de personnes. La méthode utilisée dite de scrapping constituerait, en France, une extraction frauduleuse de données contenues dans un système de traitement automatisé prévue et réprimée par l’article 323‑3 du Code pénal N° Lexbase : L0872KCB de cinq années d’emprisonnement de 150.000 euros d’amende, la sanction pouvant aller jusqu’à sept années d’emprisonnement et 300.000 euros, lorsque le STAD est mis en œuvre par l’État. Le fait de bénéficier de ces données, en connaissance de cause et par tout moyen, consommerait l’infraction de recel prévue par l’article 321‑1 du même code N° Lexbase : L1940AMS.

Un autre point épineux apparaît à la lecture du RGPD N° Lexbase : L0189K8I en ce que son article 32 pose le principe selon lequel « le responsable du traitement et le sous‑traitant mettent en œuvre les mesures techniques et organisationnelles approuvées afin de garantir un niveau de sécurité adapté au risque ». C’est en outre de cette façon que nous apprenions en janvier 2021 qu’une entreprise, victime d’une attaque par credential stuffing [22], avait été considérée comme responsable au titre de cette disposition en raison de ses mesures de cybersécurité internes jugées insuffisantes. L’autorité administrative avait prononcé une condamnation à 150 000 euros d’amende pour le responsable de traitement, et 75 000 euros d’amende pour son sous‑traitant [23].

En tant que responsable du traitement, l'avocat est donc investi de la responsabilité de garantir la sécurité et la confidentialité des données personnelles qu'il traite. L'article 32 du RGPD impose l'obligation de mettre en place des mesures techniques et organisationnelles appropriées pour prévenir les risques liés au traitement des données, et cela inclut la sécurisation des systèmes informatiques, la gestion des accès, la formation du personnel, ainsi que la mise en œuvre de procédures adaptées pour faire face à d'éventuelles violations de données. La négligence dans la mise en œuvre de ces mesures expose l'avocat, dont la responsabilité pourra être engagée, notamment en cas de violation de données qui aurait été transmise à un modèle génératif dont il ignore tout de la sécurité. Cette responsabilité s’étend également aux agissements du sous‑traitant puisque l’article 28 du règlement européen lui impose de s’assurer que ce dernier « a mis en place des mesures techniques et organisationnelles adaptées lui permettant de respecter la sécurité et la confidentialité des données » de sorte que « la conclusion d’un contrat est obligatoire entre l’avocat et ses sous‑traitants et doit réserver une faculté d’audit pour permettre de vérifier la mise en œuvre conforme des mesures précitées » [24].

En d’autres termes, en cas de violation de données, ou de toute attaque informatique, sa responsabilité sera recherchée.

12. Traitement de données involontaire et finalité du recueil de données client. L’utilisation de modèles génératifs implique nécessaire un traitement de données personnelles du client. Elle soulève alors des interrogations relatives à la protection de la vie privée, au respect du RGPD et des lois des 21 juin 2004 [25], du 6 août 2004 [26], et du 20 juin 2018 [27], pour ne citer qu’elles, venues créer des infractions spéciales en la matière. Puisque le modèle génératif a besoin de recevoir des informations concernant le client afin de répondre au mieux à la demande de son utilisateur avocat, apparaît un risque de détournement, certes involontaire, de la finalité pour laquelle le client a initialement consenti à la transmission, à la conservation et au traitement de ses données. Tel serait le cas d’un client fournissant des informations dans le cadre de son dossier, mais dont l’utilisation pour la génération automatisée de documents juridiques dépasserait la portée initialement convenue et présentée à ce dernier.

Ainsi, le fait de procéder ou faire procéder à des traitements de données à caractère personnel en méconnaissance des formalités préalables à leur mise en œuvre prévues par la loi est puni de cinq années d’emprisonnement et de 300 000 euros d’amende, quand bien même ces traitements auraient été opérés par simple négligence [28]. De la même façon, l’avocat qui recueille des informations sur son client et, de façon plus générale, tout type de données sur lui, doit l’en informer. Il est également tenu de l’informer du traitement opéré sur ces données et de la finalité de ce traitement, qui doit correspondre aux objectifs poursuivis par l’avocat. Dans le cas contraire, le fait de détourner ces informations de leur finalité, à l’occasion de leur enregistrement, de leur classement, de leur transmission ou de toute autre forme de traitement, est sanctionné de cinq années d’emprisonnement et de 300 000 euros d’amende selon l’article 226‑21 du Code pénal N° Lexbase : L4485GTB.

II. Modèles génératifs et déontologie : à la croisée des chemins

Prudence, compétence, loyauté, conscience, modération, l’ensembles des principes du RIN sont mis à l’épreuve lorsque l’avocat est utilisateur de modèles génératifs, qu’il s’agisse des principes du serment, des principes essentiels, ou des principes envers le client (A). Par ailleurs, la question du secret professionnel se trouve une fois de plus, si besoin était, au cœur des préoccupations de la profession (B).

A. Modèles génératifs et principes : une quête d’harmonie délicate

13. Singularités anciennes et autonomie procédurale. Contrairement à la question de la responsabilité civile professionnelle, celle de la déontologie de l’avocat est plus ancienne. Elle l’est presque autant que la profession elle‑même et présente pléthore de singularités.

La première d’entre elle réside dans son autonomie puisqu’il est de longue date considéré et affirmé avec force que la faute déontologique serait totalement autonome. Il est vrai que l’action disciplinaire n’est pas une action civile. Elle n’est pas une action pénale non plus d’ailleurs. Elle a un caractère professionnel et ainsi, toute faute que peut commettre l’avocat n’est pas susceptible de constituer une faute déontologique, alors qu’elle peut constituer une faute civile ou une faute pénale. Dans ce dernier cas, le lien entre faute déontologique et faute pénale est toutefois davantage ténu en ce qu’il est difficilement concevable, pour un avocat, de consommer une faute pénale sans manquer à l’un de ses principes, de sorte que l’on pourrait affirmer que tout manquement pénal est, à tout le moins, une atteinte au principe d’honneur faisant partie des principes essentiels de la profession. Il est en revanche parfois directement fait référence à des manquements pénaux consommant ipso facto des fautes déontologiques. Ainsi, par exemple, l’article 22 de la loi du 31 décembre 1971, précitée, énonce que les conseils de discipline, ou le conseil de l’Ordre du barreau de Paris siégeant comme conseil de discipline, connaissent « des infractions et fautes commises par les avocats ».

Cette notion de « faute » n’ayant jamais été clairement définie et parfaitement circonscrite, l’interprétation large qui en est faite par la jurisprudence permet d’affirmer que l’avocat est soumis à un régime d’infraction quasiment illimité. Peu importe le moment, peu importe l’endroit, tout fait de l’avocat peut constituer une faute déontologique.

La deuxième singularité de la faute déontologique par rapport à la faute comme élément nécessaire à l’engagement de la responsabilité civile professionnelle de l’avocat, réside dans l’absence d’existence d’un préjudice pour la caractériser. En effet, la faute disciplinaire peut exister indépendamment de l’émergence de tout préjudice. Si l’existence de ce préjudice peut être prise en considération dans le prononcé de la sanction et dans le quantum de la sanction disciplinaire prononcé, il n’est pas une condition de la poursuite. Ainsi, l’absence de faute civile ne signifie en aucune façon l’absence de faute déontologique, ce que la Cour de cassation a pu énoncer de façon limpide [29].

De la même manière, la faute de nature pénale est totalement indépendante de la faute disciplinaire et les fautes déontologiques, qui constituent un manquement au devoir imposé à l’avocat, n’ont pas mécaniquement d’effet en droit civil et en droit pénal. L’adage selon lequel « le criminel tien le civil en l’état », lui‑même issu de l’article 4 alinéa 2 du Code de procédure pénale N° Lexbase : L9885IQ8, ne s’applique pas à la matière disciplinaire tel que l’a souligné le quai de l’Horloge [30]. Une faute peut donc être constituée sur le plan déontologique, sans l’être sur le plan pénal, au même titre qu’une infraction pénale peut être prescrite, mais être poursuivie sur le terrain disciplinaire.

Une troisième singularité est attachée à la prescription des fautes en matière disciplinaire. La loi du 22 décembre 2021, pour la confiance dans l’institution judiciaire, n’a toujours pas prévue d’effacement du caractère fautif de comportement par l’effet du temps, de sorte que les fautes déontologiques conservent un caractère imprescriptible, une exception dans le paysage juridique français.

Enfin, dernière singularité, la poursuite pénale est tout à fait indépendante de la poursuite disciplinaire, de sorte que la relaxe au cours de la première ne saurait faire obstacle à la poursuite de la seconde. Un paradoxe retors existe même au sein de ce pseudo principe d’autonomie de l’action disciplinaire, par rapport à l’action pénale, en ce qu’il est des espèces jurisprudentielles où la faute de nature déontologique a parfois servi de fondement à la reconnaissance d’une faute civile ou pénale. Le juge a donc la possibilité d’utiliser une règle déontologique, ou plutôt un manquement à celle‑ci, pour qualifier une faute civile [31].

14. Prudence et compétence. L’avocat observe un principe de prudence envers le client qu’il tient de l’article 1.3 du RIN. S’il choisit d’intégrer les modèles génératifs de contenu dans sa pratique, il est un impératif qu’il procède à une évaluation rigoureuse des résultats produits par ces outils. Cette prudence exige alors que l’avocat s’assure que les documents générés respectent l’ensemble des règles déontologiques, mais également les prescriptions légales existantes. En effet, malgré l’effet parfois spectaculaire des résultats des outils dotés de méthodes d’apprentissage profond, qu’il s’agisse de ChatGPT, de BARD ou encore de Copilot, ces derniers connaissent aussi de sérieuses limites. L’avocat prudent est donc un avocat conscient de la possible production de documents inappropriés, ou tout simplement faux.

Certes, la version 4 de ChatGPT aurait‑elle réussie l’examen du barreau américain en se plaçant parmi les 10 % des meilleurs candidats [32]. De la même façon, la start‑up « DoNotPay » (DNP), société créée en 2015 par Joshua Browder, a voulu conduire une expérience devant un tribunal californien pour assister un automobiliste, prévenu, afin qu’il y plaide seul, une sorte de « robot‑avocat » [33] – projet avorté par l’intervention des autorités judiciaires considérant qu’il s’agissait d’une pratique illégale de la profession d’avocat.

Pour autant, pouvait‑on aussi apprendre dans le courant de l’année 2023 que Maître Steven Schwartz, avocat avec plus de trente années de barre au barreau de New‑York, a produit un mémoire intégralement rédigé par ChatGPT dans une affaire l’opposant à une compagnie aérienne. Si, dans ces écritures, l’avocat était parvenu à illustrer son argumentation de plusieurs jurisprudences destinées à conforter sa position, c’est que six d’entre elles n’existaient tout simplement pas et avait été inventées par l’outil d’OpenAI, alors même que ChatGPT prétendait avoir trouvé ces arrêts dans deux bases de données largement connues de la profession. Maître Schwartz avait alors expliqué qu’il n’avait « pas compris que ChatGPT pouvait fabriquer des affaires », et qu’il avait « entendu parler de ce nouveau site, [supposant] à tort qu’il s’agissait d’un super moteur de recherche » .

Cette illustration est patente de ce que la supervision humaine, en l’occurrence celle de l’avocat, est une nécessité dans l’utilisation des modèles génératifs de contenu. Il est exact qu’ils permettent d’automatiser une grande partie du processus de recherche, voire parfois de rédaction, mais il relève de la prudence et du dévouement de rester impliqué dans le travail de rédaction, tout en exerçant un contrôle attentif dans les résultats produits, afin de corriger l’interprétation erronée ou inappropriée que le modèle génératif propose. L’actualisation de connaissances et de compétences est également cruciale pour rester en éveil dans leur utilisation et permet d’intégrer de façon responsable l’intelligence artificielle générative dans son quotidien professionnel, évitant par là même les risques d’atteinte à l’intégrité de sa pratique.

15. Conscience et modération. La conscience impose à l’avocat d’adopter une approche délibérée et réfléchie dans les actions qu’il entreprend au bénéfice du client et de la représentation de ses intérêts. Lorsqu’il s’agit d’user de modèles génératifs, dont nous avons vu le flou qui entourent leurs alimentations, leurs productions, ou encore la seule question de la sécurité des données qu’ils collectent et stockent, cet impératif de conscience prend une dimension particulière. La conscience impose à l’avocat, d’abord, de ne pas recourir seulement à ces outils, mais de le faire en étant doté de la connaissance nécessaire. Cela englobe la compréhension de leurs capacités, de leurs limites, mais aussi des risques techniques, sécuritaires et éthiques qu’ils posent. Leur utilisation doit alors être judicieuse, ce qui répond au principe de modération. Une obligation renforcée est ainsi imposée à l’avocat qui doit savoir ou, c’est selon, qui ne peut pas ne pas savoir. Si la jurisprudence française n’a encore jamais eu à connaître de cas de mésusage des modèles génératifs, l’on a en revanche pu voir, dans le domaine des techniques numériques, un avocat manquer au principe de délicatesse en prenant connaissance d’emails échangés entre ses deux collaboratrices par l’outil de Google, Gmail. L’ordinateur de l’une d’entre elles étant resté allumé sur sa boîte de réception, il avait pris la décision, à leur lecture, de mettre fin à leur contrat de collaboration [35]. La jurisprudence a donc instauré l’équivalence d’une vigilance renforcée à l’égard des conseils, et il a été souligné avec justesse que c’est « la qualité d’avocat qui impose avec davantage de rigueur l’observation du respect du secret des correspondances et de la vie privée »[36].

16. Complétude, clairvoyance et loyauté. Il apparaît donc essentiel que l’avocat ait la pleine conscience de la façon dont fonctionnent les outils d’intelligence artificielle, en l’occurrence les outils générateurs de contenus, et qu’il comprenne ce que la transmission d’informations concernant le client implique sur le terrain du traitement de la donnée pour commencer. Sur ce point, il semble difficile de se dispenser du recueil du consentement du client, dont l’avis doit être recueilli avant de transmettre de telles informations à des sociétés étrangères se trouvant généralement hors Union européenne.

Au‑delà de la seule question de l’utilisation de modèles génératifs, cette étape fondamentale s’inscrit dans le droit fil du respect et de la préservation du lien de confiance qui existe entre le client et son conseil. Une information complète et compréhensible doit lui être fournie, aussi bien quant à l’objectif poursuivi par le partage d’information, que le but du traitement, en passant par les mesures de sécurité mises en place et ses droits en matière de protection des données.

17. Transparence. L’avocat doit alors parfois présenter de façon transparente la manière dont ces outils sont utilisés dans le cadre des services juridiques qu’il fournit, en mettant en évidence les avantages certains qui existent, mais également les limites et les risques potentiels associés à ces techniques numériques, dont les certitudes qui gouvernent les sociétés qui les proposent sont encore très floues. Le client doit également être parfaitement informé de la possibilité de retirer son consentement, afin de conserver un contrôle sur l’utilisation qui est faite de ses données personnelles, toujours pour garantir et renforcer ce lien de confiance essentiel dans la relation avocat‑client.

Animé du principe de compétence et de prudence envers le client, l’avocat doit pour sa part se tenir informé de l’évolution évidente du fonctionnement et de la finalité des modèles génératifs, et ce, afin de garantir au client qu’il reste pleinement maître de l’utilisation des données qui ont été transmises, et de minimiser les risques de perte de contrôle que présentent ces outils lorsqu’ils ne font l’objet d’aucune surveillance humaine.Un outil tel que ChatGPT évolue au fil du temps pour des raisons multiples. Les informations qui lui sont données ne seront pas utilisées de la même façon, et pour les mêmes raisons, à deux instants différents. Confronté à cette utilisation rapidement changeante, ou encore à l’ajout de fonctionnalités nouvelles, l’avocat doit maintenir une veille constante s’il veut pouvoir réévaluer utilement et conserver le contrôle de ce qui est fait des informations qu’il transmet. Régularité et rigueur s’imposent lorsqu’il est question d’agilité et de transparence.

B. Modèles génératifs et secret professionnel : l’avocat ne peut pas tout demander

18. Secret professionnel. Le dernier élément que nous aborderons dans le périmètre de la présente contribution, peut‑être le plus important, concerne le secret professionnel prévu à l’article 2 du RIN, secret dont l’avocat n’est pas détenteur mais garant. Un secret que son confident nécessaire lui remet, et dont il est le gardien. Ce même secret qui est, de très longue date, attaqué et remis en question pour des raisons aussi abondantes que dispersées. L’avocat se doit donc de le défendre, et les vifs débats qui ont animé ce point lors de l’adoption de la loi confiance du 22 décembre 2021 [37] en sont une illustration patente. Paradoxalement, il est aussi parfois négligé, rarement délibérément, souvent parce qu’oublié. Polémiques brulantes, prises de positions médiatiques intenses, discussions de palais ou conversations de cabinet, chaque occasion qui lui est donnée de souffrir est une brèche que ses détracteurs affectionnent d’exploiter avec soin.

L’exemple des correspondances par voie dématérialisée est topique. L’on sait que les machines de la compagnie Google ont besoin d’être alimentées pour s’entraîner, et proposer de nouveaux services. De cette façon, ses règles de confidentialité et conditions d’utilisation énoncent sans aucune équivoque :

« Nous collectons également le contenu que vous créez, importez ou recevez de la part d'autres personnes via nos services. Cela inclut par exemple les e‑mails que vous écrivez ou recevez, les photos et vidéos que vous enregistrez, les documents et feuilles de calcul que vous créez, ainsi que les commentaires que vous rédigez sur YouTube. »

De la même façon, le fait de connecter une adresse email telle que Gmail à un outil comme Outlook donne droit à Microsoft de :

« Lire, rédiger et supprimer des e‑mails dans Gmail », d’« Afficher, modifier, créer et supprimer des fichiers dans Google Drive », d’« Afficher, modifier, télécharger et supprimer définitivement vos contacts », d’« Afficher, modifier, partager et supprimer définitivement tous les agendas auxquels vous pouvez accéder dans Google Agenda », et « consulter et télécharger toutes les adresses e‑mail associées à votre compte Google ».

La première interrogation semble relever de l’évidence en ce qu’elle consiste à se demander comment des outils tels que Gmail peuvent bien être compatibles avec le secret du client dont l’avocat est le gardien ? Il en va de même des conditions d’utilisation de BARD, voisin de ChatGPT, qui énonce explicitement : « Veuillez ne pas saisir d'informations confidentielles dans vos conversations avec BARD, ni d'informations que vous ne souhaiteriez pas qu'un réviseur consulte ou que Google utilise pour améliorer ses produits, services et technologies de machine learning » [38]. Ce problème de collecte des données de ses utilisateurs par ChatGPT était, en outre, l’un des motifs énoncés, parmi d’autres, par le Président de la « CNIL italienne », la Garante, pour en avoir interdit l’accès et fait bloquer le service sur le territoire par une décision du 30 mars 2023 [39].

19. Une utilisation avec délicatesse et modération. C’est peut‑être une nouvelle fois à la délicatesse que l’avocat doit alors se rattacher, principe selon lequel l’avocat fait preuve, dans son activité, « d’une finesse de goût et de jugement très sûre, le caractère d’une personne qui manifeste des qualités de réserve, de discrétion et de prévenance envers autrui » [40]. Cette même délicatesse qui, contrairement à la modération, renvoie aux actes qu’il réalise lorsque la seconde qualifie les paroles qu’il prononce [41], laquelle lui impose de se demander quel est le sens pour lui de l’utilisation d’un générateur de contenu. En tant que starter de page blanche ou d’ « amorce » d’argumentaire, ChatGPT est fantastique. En revanche, s’il est utilisé pour générer des conclusions, des procès‑verbaux, des résumés de textes ou répondre à un confrère [42], alors sa menace envers le secret du client et le secret professionnel est réellement présente.

Si ChatGPT répond effectivement avec de l’aplomb, l’avocat qui questionne doit demeurer alerte des coups qu’il donne, à l’improviste et sans douleur.

Toile de fond tantôt silencieuse, tantôt tumultueuse, sur laquelle se déploie une danse complexe de justice, le secret professionnel doit demeurer la boussole morale de l’avocat, dont le Nord reste l’éthique. Véritable travail de réflexivité sur sa propre activité et sur celle de son cabinet, l’utilisateur de modèles génératifs, qui représentent une opportunité, doit s’auditer lorsqu’il alimente une machine dont il ne connaît ni les intentions, ni les réactions. S’il est envisageable de nourrir ChatGPT après minuit, et de lui donner de l’eau, demeurera toutefois l’insoluble question de savoir à partir de quel degré d’humidité un mogwai se transforme.

« Vous acceptez et convenez que toute utilisation des résultats de [ChatGPT] se fait à vos risques et périls. » 

OpenAI, Terms of use, « Disclaimer of Warranties », 14 novembre 2023


[1] P. Hernert, Les algorithmes, Paris, Presses universitaires de France, coll. « Que sais‑je ? », 2002

[2] Cl. Richard, Dans la boîte noire des algorithmes. Comment nous nous sommes rendus calculables, Revue du crieur, 2018, n° 11, p. 71.

[3] S. Abiteboul et G. Dowek, Le temps des algorithmes, Paris, Le Pommier, coll. « Essais & Documents », 2017, p. 18.

[4] G. Rouet, Démystifier les algorithmes, Hermès, La revue, 2019, n° 85, p. 23.

[5] G. M. Harshvardhan, M. K. Gourisaria, M. Pandey, S. S. Rautaray, A comprehensive survey and analysis of generative models in machine learning, Computer Science Review, vol. 38, 2020.

[6] Alan M. Turing, Computing machinery and intelligence, Mind, 1 octobre 1950, LIX, n° 236, p 432.

[7] Fr. Terré et N. Molfessis, Introduction générale au droit 15ed, Dalloz, Paris, 2023, 15e édition, §15.

[8] Pour Chat Generative Pre‑trained Transformer 

[9] OpenAI est une entreprise « à but lucratif plafonné » de 375 employés, spécialisée dans l’intelligence artificielle, et plus particulièrement le raisonnement, fondée par Elon Musk, Sam Altman, Ilya Sutskever, Greg Brockman, Wojciech Zaremba et Andrej Karpathy.

[10] Loi n° 71‑1130, du 31 décembre 1971, portant réforme de certaines professions judiciaires et juridiques N° Lexbase : L6343AGZ

[14] Décret n° 2005‑790, du 12 juillet 2005, relatif aux règles de déontologie de la profession d'avocat N° Lexbase : L6025IGA.

[15] Cass. ass. plén., 25 février 2000, n° 97‑17.378 N° Lexbase : A8154AG4 et n° 97‑20.152 N° Lexbase : A8155AG7.

[16] CA Paris, 25e ch., sect. A, 17 mai 2002, n° 2000/09993 N° Lexbase : A27892BW

[17] Figure tout de même le principe de loyauté dans les principes essentiels de l’avocat.

[18] CJUE, 15 janvier 2015, aff. C‑537/13, Birute Siba c/ Arunas Devenas N° Lexbase : A1934M9I

[19] Cass. civ. 1, 9 février 2012, n° 11‑10.893, F‑D N° Lexbase : A3668ICT

[20] Loi n° 2006‑961, du 1er août 2006, relative au droit d'auteur et aux droits voisins dans la société de l'information N° Lexbase : L4403HKB

[21] Product safety standards, OpenAI, consulté le 11 décembre 2023 [en ligne]

[22] Le « credential stuffing » est une technique d’attaque informatique qui exploite le fait que de nombreuses personnes réutilisent les mêmes identifiants, c’est‑à‑dire le nom d’utilisateur et le mot de passe, sur plusieurs sites et services en ligne. L’attaque consiste à prendre des informations d’identification, qui sont souvent obtenues à partir de fuites de données de certains sites, et à les essayer automatiquement sur différentes sites web ou applications. L’une des mesures les plus robustes à ce jour, outre le fait de varier ses identifiants, reste l’authentification à deux facteurs (2FA).

[23] CNIL, Formation restreinte, 27 janvier 2021, consulté le 13 décembre 2023, [en ligne] ; M.‑L. Hardouin‑Ayrinhac, Attaque par « Credential stuffing » : la CNIL sanctionne un responsable de traitement et son sous‑traitant et rappelle les obligations leur incombant, Le Quotidien, 28 janvier 2021 N° Lexbase : N6256BYD.

[24] CNB, Guide pratique – Les avocats et le règlement général sur la protection des données (RGPD), mai 2023, p. 23 [en ligne]

[25] Loi n° 2004‑575, du 21 juin 2004, pour la confiance dans l'économie numérique N° Lexbase : L2600DZC

[26] Loi n° 2004‑801, du 6 août 2004, relative à la protection des personnes physiques à l’égard des traitements de données à caractère personnel et modifiant la loi n° 78‑17, du 6 janvier 1978, relative à l'informatique, aux fichiers et aux libertés N° Lexbase : L0722GTW.

[27] Loi n° 2018‑493, du 20 juin 2018, relative à la protection des données personnelles N° Lexbase : L7645LKD.

[28] C. pén., art. 226‑16 N° Lexbase : L4525LNW

[29] Cass. civ. 1, 30 septembre 2015, n° 14‑23.372 N° Lexbase : A5665NSM

[30] Cass. civ. 1, 28 avril 2011, n° 10‑15.444 N° Lexbase : A5370HPL

[31] Cass. civ. 1, 24 octobre 2019, n° 18‑23.858 N° Lexbase : A6551ZSG

[32] Fr. Terré et N. Molfessis, Introduction générale au droit 15ed, op. cit., §16.

[33] A. Touati et S. Benhamou, Et si des intelligences artificielles jouaient le rôle d'avocat ?, Revue pratique de la prospective et de l'innovation, mai 2023, dossier 4, n° 1, p. 21

[34] G. Thierry, Comment ChatGPT pourrait changer le métier des avocats, Dalloz actualité, 29 juin 2023

[35] Cass. civ. 1, 17 mars 2016, n° 15.14.557, F‑P+B N° Lexbase : A3449Q8A

[36] O. Baldes, La preuve numérique et le principe de délicatesse de l'avocat, Lexbase Avocats, mai 2016 N° Lexbase : N2487BWZ

[37] Loi n° 2021‑1729, du 22 décembre 2021, pour la confiance dans l'institution judiciaire N° Lexbase : L3146MAR

[38] V. supra, § 5.

[39] Garante, Provvedimento del 30 marzo 2023 [9870832], Registre des mesures, 30 mars 2023, n° 112, , consulté le 14 décembre 2023, [en ligne]

[40] S. Bortoluzzi; D. Piau et Th. Wickers, Règles de la profession d’avocat 2002/2023, Dalloz Action, 2022, 17e ed, p. 543, §336.11

[41] Pour approfondir la distinction entre délicatesse et modération, l’auteur renvoi modestement à sa précédente contribution, v. [Focus] Dire ou ne pas dire : du bon usage de la parole par l’avocat, Lexbase Avocats, novembre 2022 N° Lexbase : N3155BZU

[42] Cette liste est infinie.

newsid:487851

Utilisation des cookies sur Lexbase

Notre site utilise des cookies à des fins statistiques, communicatives et commerciales. Vous pouvez paramétrer chaque cookie de façon individuelle, accepter l'ensemble des cookies ou n'accepter que les cookies fonctionnels.

En savoir plus

Parcours utilisateur

Lexbase, via la solution Salesforce, utilisée uniquement pour des besoins internes, peut être amené à suivre une partie du parcours utilisateur afin d’améliorer l’expérience utilisateur et l’éventuelle relation commerciale. Il s’agit d’information uniquement dédiée à l’usage de Lexbase et elles ne sont communiquées à aucun tiers, autre que Salesforce qui s’est engagée à ne pas utiliser lesdites données.

Réseaux sociaux

Nous intégrons à Lexbase.fr du contenu créé par Lexbase et diffusé via la plateforme de streaming Youtube. Ces intégrations impliquent des cookies de navigation lorsque l’utilisateur souhaite accéder à la vidéo. En les acceptant, les vidéos éditoriales de Lexbase vous seront accessibles.

Données analytiques

Nous attachons la plus grande importance au confort d'utilisation de notre site. Des informations essentielles fournies par Google Tag Manager comme le temps de lecture d'une revue, la facilité d'accès aux textes de loi ou encore la robustesse de nos readers nous permettent d'améliorer quotidiennement votre expérience utilisateur. Ces données sont exclusivement à usage interne.