Sommaire de l'article+
Le constat 2026 : utiliser l'IA sans charte est devenu un risque déontologique majeur
En mai 2026, plus aucun cabinet d'avocats français n'échappe à l'IA générative. ChatGPT, Claude, Copilot, outils juridiques spécialisés : l'usage s'est généralisé, y compris dans les cabinets individuels. Mais le cadre, lui, s'est durci. Le guide « Déontologie et intelligence artificielle » du CNB (adopté en mars 2026), le Livre blanc IA du Barreau de Paris (octobre 2025), l'AI Act désormais pleinement applicable et les premières décisions françaises sanctionnant les hallucinations redessinent la responsabilité de l'avocat.
Conséquence opérationnelle : un cabinet qui n'a pas formalisé sa politique d'usage de l'IA s'expose. À la responsabilité civile professionnelle. Au manquement déontologique. Et — c'est la nouveauté de 2026 — à la perte de confiance des clients qui posent désormais directement la question : « Comment encadrez-vous l'IA dans votre cabinet ? »
Cet article propose une méthode étape par étape pour bâtir une charte IA réellement opérationnelle, et non un document de façade. Il s'appuie sur la pratique Dylaw d'accompagnement de cabinets français, et intègre la grille d'audit que nous utilisons en mission.
Pour les cabinets qui souhaitent aller plus loin que la charte, voir notre comparatif des meilleurs outils IA pour avocats en 2026 et l'annonce récente de Claude for Legal.
1. Pourquoi une charte IA est devenue indispensable
1.1 Le cadre juridique convergent
Quatre corps de règles se cumulent — et la charte IA est l'outil qui permet de les articuler concrètement dans la vie du cabinet :
- Le secret professionnel (article 66-5 de la loi du 31 décembre 1971, article 2 du RIN, article 226-13 du Code pénal) — règle absolue, qui prime sur tout usage technologique ;
- Le RGPD (articles 5, 6, 28, 32) — l'avocat est responsable de traitement et doit encadrer ses sous-traitants IA par un DPA conforme à l'article 28 ;
- L'AI Act (Règlement (UE) 2024/1689) — qui impose des obligations spécifiques aux déployeurs, notamment de transparence et de supervision humaine ;
- La déontologie des avocats — RIN, recommandations CNB de mars 2026, position du CCBE (mai 2025), guide CNB sur le choix des outils IA juridiques (juin 2025).
1.2 Le risque concret
Le risque n'est plus théorique. Depuis fin 2025, plusieurs juridictions ont sanctionné l'usage non maîtrisé de l'IA :
Tribunal judiciaire de Périgueux, 18 décembre 2025 — références jurisprudentielles inexistantes
Tribunal administratif d'Orléans, 29 décembre 2025 — jurisprudence fictive
Tribunal administratif de Rennes, 28 janvier 2026 — requête rejetée comme « manifestement rédigée à l'aide d'une IA générative »
CAA de Bordeaux, 26 février 2026 — injonction de vérifier les références citées
À chacune de ces décisions correspond, en miroir, un risque disciplinaire pour l'avocat concerné et un risque de mise en cause de sa RCP.
1.3 Le bénéfice business
À l'inverse, formaliser une charte IA est devenu un argument différenciant auprès des clients :
- Pour les clients corporate, c'est une exigence d'achat — au même titre que la certification ISO 27001 d'un prestataire IT ;
- Pour les particuliers, c'est un argument de confiance ;
- En interne, c'est un outil de pilotage des collaborateurs, des stagiaires et du personnel administratif.
2. Les 3 erreurs les plus fréquentes que la charte doit prévenir
Avant de structurer la charte, il faut savoir ce qu'on cherche à éviter. Trois pratiques sont systématiquement constatées dans nos audits :
Erreur n°1 — Saisir des données client dans une IA grand public. Coller la trame d'un divorce, un projet de conclusions ou les pièces d'un dossier pénal dans la version gratuite de ChatGPT. Cette pratique viole simultanément le secret professionnel, le RGPD (transferts vers les États-Unis, Cloud Act) et les recommandations du CNB.
Erreur n°2 — Ne pas vérifier les productions de l'IA. Les hallucinations sont une réalité judiciaire en 2026. L'article 1.3 du RIN impose compétence, diligence et prudence ; l'IA est un outil d'assistance, pas de substitution.
Erreur n°3 — Adopter un outil IA sans audit préalable. Les mentions commerciales « RGPD compliant » ou « hébergé en Europe » ne suffisent pas. L'article 28.1 du RGPD impose à l'avocat, responsable de traitement, de vérifier que son sous-traitant offre des « garanties suffisantes ».
La charte IA n'a de valeur que si elle traite explicitement ces trois risques. C'est le point de départ de la rédaction.
3. La méthode Dylaw : 6 piliers d'une charte IA solide
Voici les six piliers structurants qu'une charte IA doit couvrir pour être opérationnelle. Ils sont issus de notre pratique d'accompagnement et alignés sur la grille d'auto-évaluation CNB (juin 2025) ainsi que sur le Livre blanc du Barreau de Paris.
Pilier 1 — Périmètre et définitions
La charte doit s'appliquer à toutes les personnes intervenant au cabinet : associés, collaborateurs, stagiaires, élèves-avocats, personnel administratif, prestataires. Elle doit définir précisément ce qu'on entend par « IA » (référence à l'article 3 du Règlement (UE) 2024/1689), « IA générative », « outil validé » et « données sensibles ».
Pilier 2 — Cartographie des outils autorisés et interdits
Le principe est celui de la liste blanche : tout outil ne figurant pas sur la liste validée est interdit par défaut. L'ajout d'un nouvel outil est subordonné à l'audit préalable (voir section 4).
À l'inverse, la charte interdit explicitement : les versions gratuites des IA grand public pour les tâches client, la création de comptes personnels pour un usage professionnel, et le contournement des paramètres de sécurité configurés par le cabinet.
Pilier 3 — Règles de confidentialité et secret professionnel
C'est le cœur de la charte. La pratique éprouvée consiste à mettre en place une classification des données à trois niveaux :
- VERT (libre) — recherches juridiques génériques, reformulation de textes non confidentiels, contenus marketing du cabinet. Utilisable sur tout outil validé.
- ORANGE (encadré) — analyse de clauses types sans données client, synthèse de textes législatifs, trames d'actes. Uniquement sur outils validés avec garantie de non-réutilisation. Pseudonymisation recommandée.
- ROUGE (interdit) — toute donnée couverte par le secret, données personnelles client, pièces de procédure, stratégie contentieuse, éléments d'identification. Jamais dans un outil d'IA, sauf environnement privé dédié.
Cette grille est simple, mais elle doit être affichée et connue de tous. C'est elle qui transforme la charte en réflexe quotidien.
Pilier 4 — Vérification humaine systématique et traçabilité
Toute production IA doit faire l'objet d'une vérification humaine complète avant transmission au client ou à une juridiction. Cette vérification porte sur : l'exactitude juridique, la pertinence des sources citées, la cohérence du raisonnement, et l'absence d'hallucinations.
Côté traçabilité, le recours significatif à un outil d'IA dans un dossier doit être consigné en fiche interne, en précisant l'outil utilisé, la nature de la tâche, le niveau de données soumises et la mention « Vérifié par [Nom] le [Date] ».
Pour les questions spécifiques de déontologie liées à l'IA vocale (transparence, RGPD, supervision), voir notre article L'IA vocale dans les cabinets : est-ce éthique ?
Pilier 5 — Gouvernance : référent IA, comité, formation
Aucune charte ne fonctionne sans un Associé référent IA clairement désigné. Ses missions : gestion de la liste blanche, audit des nouveaux outils, organisation des formations, gestion des incidents, veille réglementaire, et révision annuelle de la charte.
La formation est obligatoire avant tout usage. Le CNB recommande explicitement de l'inscrire dans le parcours d'intégration des nouveaux collaborateurs.
Cette gouvernance s'articule naturellement avec les obligations RGPD du cabinet : voir nos mentions légales et politique de confidentialité pour le cadre que Dylaw applique en production.
Pilier 6 — Sanctions et gestion des incidents
Une charte sans dispositif disciplinaire ne sera pas appliquée. Elle doit prévoir une échelle graduée : rappel à l'ordre, suspension d'accès aux outils, mesures disciplinaires internes, et signalement au bâtonnier en cas de manquement grave.
Côté incidents (fuite de données, hallucination dans une pièce déposée, utilisation non autorisée), la procédure doit prévoir : alerte immédiate du référent IA, documentation de l'incident, suspension de l'outil, et si besoin notification CNIL sous 72 heures (article 33 RGPD).
4. Étape préalable indispensable : auditer son cabinet
C'est la phase que la plupart des cabinets ratent.
Rédiger une charte IA sans audit préalable, c'est rédiger un règlement intérieur sans connaître ses effectifs. La charte doit s'adosser à un état des lieux factuel : quels outils sont réellement utilisés, par qui, pour quoi, avec quelles garanties contractuelles.
La grille d'audit Dylaw
Pour structurer cette phase, Dylaw a conçu une grille d'audit qui reprend la grille d'auto-évaluation CNB (juin 2025, v.1.2) et le Livre blanc IA du Barreau de Paris (octobre 2025), enrichie de critères complémentaires issus de notre pratique terrain.

La grille couvre 10 sections et 76 critères, organisés par priorité (CRITIQUE / ÉLEVÉE / MOYENNE / FAIBLE) :
- Secret professionnel et souveraineté des données — hébergement, nationalité de l'éditeur, exposition au Cloud Act / FISA, garantie d'absence de transmission au LLM ;
- Confidentialité et sécurisation — chiffrement, gestion des clés, pseudonymisation, journalisation des accès, MFA ;
- Conformité RGPD — DPA article 28, transferts hors UE, droits des personnes, AIPD, DPO ;
- Fiabilité des résultats — sources citées, RAG sécurisée, LLM français/européen, supervision humaine ;
- Conformité AI Act — qualification du système, documentation technique, supervision intégrée, transparence ;
- Conditions contractuelles — CGU compatibles déontologie, réversibilité, SLA, PAS ;
- Certifications et labels — ISO 27001, SOC 2 Type II, HDS, SecNumCloud ;
- Fonctionnalités et adéquation — besoins du cabinet, droit français vs Common Law ;
- Déploiement et coût — adaptation à la taille du cabinet, formation, support ;
- Gouvernance et traçabilité interne — traçabilité des usages, intégration dans la charte, formation déontologique.
Les critères classés CRITIQUE sont éliminatoires : une seule non-conformité justifie le rejet de l'outil.
Comment utiliser la grille
L'audit se déroule en quatre temps :
- Inventaire — recenser tous les outils IA effectivement utilisés au cabinet (y compris les usages « informels » via comptes personnels) ;
- Évaluation — passer chaque outil au crible des 76 critères ;
- Décision — VALIDÉ / VALIDÉ SOUS CONDITIONS / REJETÉ ;
- Plan d'action — outils à conserver, à reconfigurer, à abandonner, à remplacer.
C'est cette photographie qui alimentera la rédaction de la charte — en particulier la liste blanche du Pilier 2 et la cartographie des risques résiduels.
5. Déployer la charte dans le cabinet
Une charte rédigée mais non déployée ne protège personne. Quatre étapes opérationnelles :
Étape 1 — Validation par l'organe de gouvernance. En cabinet individuel, l'avocat la signe et la date. En structure d'exercice, validation par l'assemblée des associés.
Étape 2 — Annexion au règlement intérieur et aux contrats. La charte est annexée au règlement intérieur du cabinet, au contrat de collaboration et au contrat de travail du personnel salarié. Une attestation de lecture et d'engagement signée par chaque utilisateur est conservée au dossier individuel.
Étape 3 — Formation obligatoire. Le CNB recommande une formation initiale plus une session annuelle de mise à jour. La formation porte autant sur les aspects techniques (utilisation des outils validés, pseudonymisation) que déontologiques (secret professionnel, vérification, traçabilité).
Étape 4 — Révision annuelle. Le rythme des évolutions techniques et réglementaires impose une révision au minimum annuelle, et systématique en cas d'incident significatif ou de changement majeur des CGU d'un outil validé.
6. Modèle de clauses prêtes à intégrer
Voici quatre clauses, directement réutilisables, issues du modèle de charte Dylaw.
Clause secret professionnel (Article 2.1 type)
Conformément aux articles 2 et 4 du RIN et à l'article 226-13 du Code pénal, aucune donnée couverte par le secret professionnel ne peut être communiquée à un système d'IA, sauf si l'outil concerné figure sur la liste des outils validés (Annexe 1) et que les conditions d'utilisation définies par la présente charte sont strictement respectées. Sont notamment interdits, sans exception : la saisie du nom, de l'identité ou de données identifiantes d'un client ; la soumission de pièces de procédure, contrats ou correspondances ; la communication d'éléments stratégiques ; l'utilisation d'un outil d'IA en version gratuite ou grand public pour toute tâche liée à un dossier client.
Clause vérification humaine (Article 2.3 type)
Toute production issue d'un système d'IA doit faire l'objet d'une vérification complète par l'avocat responsable avant toute utilisation, transmission au client ou soumission à une juridiction. Cette vérification porte sur l'exactitude juridique, la pertinence des sources citées, la cohérence du raisonnement et l'absence de contenu fictif.
Clause traçabilité (Article 4.3 type)
Tout recours significatif à un outil d'IA dans le cadre d'un dossier client doit être mentionné dans la fiche interne du dossier, en précisant l'outil utilisé, la nature de la tâche, le niveau de données soumises (Vert / Orange) et la mention « Vérifié par [Nom] le [Date] ».
Clause à intégrer dans la convention d'honoraires
Le Cabinet peut, dans le cadre de l'exécution de sa mission, recourir à des outils d'intelligence artificielle comme aide à la recherche, à l'analyse ou à la rédaction. Ces outils sont utilisés sous la supervision et la responsabilité exclusive de l'avocat en charge du dossier. Le secret professionnel, la confidentialité des données et la qualité du travail juridique demeurent pleinement garantis. L'avocat reste seul responsable de tout travail produit et transmis au client.
7. Erreurs à éviter dans la rédaction même de la charte
Quelques travers récurrents observés lors de nos audits :
- Charte trop générique. Une charte recopiée d'un modèle « entreprise » sans adaptation au cadre déontologique des avocats est inutile, voire contre-productive. Le secret professionnel n'est pas une obligation de confidentialité ordinaire — il prime sur tout intérêt commercial.
- Charte sans liste blanche. Une charte qui se contente d'énoncer des principes sans nommer les outils validés ne tranche aucune décision concrète. Elle ne sera pas utilisée.
- Charte sans référent. Sans Associé référent IA identifié, la charte est orpheline : qui décide d'ajouter un outil ? qui gère un incident ? La gouvernance fait la différence entre charte vivante et charte de placard.
- Charte sans formation. Le CNB est très clair en mars 2026 : la formation est une obligation déontologique, pas une option managériale.
- Charte sans révision. Le cycle des outils IA se compte en mois, pas en années. Une charte de 2024 est probablement obsolète en 2026.
Conclusion : la charte est un outil vivant, pas une formalité
Rédiger une charte IA pour son cabinet d'avocats en 2026, ce n'est pas produire un document de conformité — c'est se doter d'un outil opérationnel qui protège l'avocat, ses clients et son cabinet.
Les trois conditions du succès sont simples : un audit préalable factuel, une rédaction adaptée à la déontologie de l'avocat, et un déploiement réel avec gouvernance, formation et révision annuelle.
Vous pouvez démarrer dès aujourd'hui :
- Téléchargez la grille d'audit Dylaw pour faire votre état des lieux ;
- Téléchargez le modèle de charte et adaptez-le à votre cabinet ;
- Si vous souhaitez un accompagnement sur mesure (audit, rédaction, formation), prenez rendez-vous avec Dylaw.
Sources et références
Droit français et déontologie
- Loi n° 71-1130 du 31 décembre 1971, article 66-5 (secret professionnel)
- Règlement Intérieur National (RIN), articles 1.3, 2, 2 bis, 4
- Article 226-13 du Code pénal (violation du secret professionnel)
- CNB — Guide « Déontologie et intelligence artificielle » (mars 2026)
- CNB — Grille d'auto-évaluation des solutions IA pour avocats (juin 2025, v.1.2)
- CNB — Guide de choix des outils d'IA juridiques (juin 2025)
- Barreau de Paris — Livre blanc sur l'IA (octobre 2025)
Droit européen
Jurisprudence récente
- TJ Périgueux, 18 décembre 2025 (références jurisprudentielles inexistantes)
- TA Orléans, 29 décembre 2025 (jurisprudence fictive)
- TA Rennes, 28 janvier 2026 (requête manifestement rédigée à l'aide d'une IA générative)
- CAA Bordeaux, 26 février 2026 (injonction de vérifier les références citées)
© Dylaw 2026 — Cet article a une vocation pédagogique et ne constitue pas une consultation juridique.
Mots-clés