📌 IA au prétoire : 10 avocats français épinglés pour jurisprudences fantômes
Posted 20 avril 2026 by: Admin
Les intelligences artificielles génératives produisent parfois des informations fausses présentées avec l’apparence de la vérité — un phénomène baptisé « hallucination ». Dans le monde juridique, cette défaillance prend une forme particulièrement grave : des avocats soumettent aux juges des références à des arrêts qui n’ont jamais existé. En France, dix affaires sont désormais documentées ; à l’échelle mondiale, le compteur a dépassé 1 333 cas dans plus de trente pays.
En bref
- —1 333 affaires d’hallucinations IA recensées dans 30 pays
- —La France compte déjà 10 cas devant ses tribunaux
- —Un avocat américain condamné à 109 700 dollars d’amende
2023 : le premier scandale new-yorkais ouvre une boîte de Pandore mondiale
Le printemps 2023 marque un tournant. Devant un tribunal fédéral de New York, un avocat soumet un mémoire truffé de citations jurisprudentielles inexistantes, toutes générées par un outil d’intelligence artificielle. L’affaire est rapidement médiatisée et révèle, pour la première fois au grand jour, la fragilité des pratiques juridiques face aux modèles de langage.

La contagion est rapide. Six mois seulement après ce premier cas américain, un tribunal londonien est à son tour confronté au même problème. Damien Charlotin, praticien indépendant et chercheur associé au Smart Law Hub d’HEC Paris, entreprend alors de recenser systématiquement ces affaires dans une base de données académique consultable en ligne.
Trois ans plus tard, cette base recense 1 333 affaires dans plus de trente pays, arrêtées au 20 avril 2026. Les États-Unis concentrent la majorité des cas, avec 902 affaires soit 67,6 % du total. Le Canada suit avec 144 cas, devant l’Australie (73), le Royaume-Uni (52) et Israël (50). Le phénomène touche désormais tous les continents.
La méthodologie de Charlotin est rigoureusement conservatrice : ne sont répertoriées que les affaires dans lesquelles un tribunal a explicitement établi — ou fortement suggéré — que des hallucinations avaient été soumises. Les simples allégations sans confirmation judiciaire sont exclues. Le chiffre réel est donc vraisemblablement bien supérieur.
Qu’est-ce qu’une hallucination d’IA ?
Les modèles de langage génèrent du texte en prédisant les mots les plus probables, sans jamais vérifier la réalité des informations produites. En droit, cette défaillance prend une forme particulièrement trompeuse : les fausses références sont rédigées dans un style juridique impeccable, avec des numéros de dossier plausibles et des dates cohérentes. C’est précisément cette apparence de vérité qui pousse de nombreux professionnels à ne pas contrôler les sources générées.
La France rattrapée : des mises en garde dans les tribunaux administratifs
La France a longtemps semblé en marge du phénomène. C’est à la fin de l’année 2025 que les premières affaires explicitement documentées y ont émergé, dans les juridictions administratives.

Les 3 et 9 décembre 2025, le tribunal administratif de Grenoble identifie des « références jurisprudentielles fantaisistes » dans deux dossiers distincts. Dans les deux cas, il s’agit de justiciables non représentés par un avocat, qui avaient utilisé des outils d’IA générative pour rédiger leurs requêtes — et joint, par inadvertance, leurs conversations avec le chatbot au dossier.
Le 29 décembre 2025, c’est un avocat cette fois qui est mis en cause devant le tribunal administratif d’Orléans. Sa requête contenait environ quinze références entièrement fictives. Le tribunal l’a formellement invité à vérifier que « les références trouvées par quelque moyen que ce soit ne constituent pas une hallucination ou une confabulation ».
La France comptabilise aujourd’hui dix cas dans la base de Charlotin. Un chiffre encore modeste, mais dont la progression en quelques semaines trahit une tendance de fond. D’autant que 81 % des avocats français déclarent utiliser l’IA générative dans leur pratique professionnelle quotidienne.
Des sanctions de plus en plus lourdes, surtout outre-Atlantique
Les conséquences juridiques de ces erreurs varient fortement selon les pays. En France, les affaires de fin 2025 n’ont donné lieu qu’à des mises en garde formelles. Aucune sanction disciplinaire n’a encore été prononcée par les instances ordinales françaises. La situation est très différente aux États-Unis, où les tribunaux n’ont pas tardé à frapper fort.

Les avocats représentent 37,8 % des cas recensés dans la base de données, mais ils figurent parmi les plus lourdement sanctionnés. Contrairement aux justiciables non représentés — qui constituent pourtant la majorité des cas (59,7 %) —, les avocats sont tenus à une obligation de vérification stricte envers le tribunal. Soumettre une fausse référence constitue une faute déontologique grave, indépendamment de la bonne foi invoquée.
Les exemples américains illustrent cette sévérité croissante. Un avocat de l’Oregon a récemment écopé d’une amende record de 109 700 dollars en sanctions et frais. L’affaire United States v. Farris (6e circuit, avril 2026) a abouti à la disqualification de l’avocat concerné, assortie d’un renvoi devant les instances disciplinaires du barreau. D’autres ont vu leurs honoraires supprimés ou leurs dossiers purement et simplement rejetés.
Au-delà des condamnations financières, ces affaires laissent des traces durables. Les décisions rendues publiques alimentent une jurisprudence naissante sur la responsabilité des praticiens du droit face aux outils numériques — un corpus qui se constitue à mesure que les cas se multiplient.
Des réponses institutionnelles qui peinent à suivre le rythme
Face à la multiplication des cas, les tribunaux du monde entier ont commencé à adapter leurs procédures. Plusieurs juridictions envisagent d’imposer un étiquetage obligatoire des documents produits à l’aide d’outils automatisés. Certaines cours américaines exigent déjà que les avocats déclarent explicitement tout recours à l’IA dans la rédaction de leurs mémoires.

Ces mesures restent pourtant insuffisantes face à la vitesse d’adoption des outils. Des études techniques montrent que les modèles de langage les plus avancés produisent des hallucinations dans 15 à 20 % des cas lorsqu’ils sont sollicités pour des recherches jurisprudentielles précises — un taux alarmant dans un domaine où la fiabilité des sources est absolument fondamentale.
En France, le Règlement Intérieur National (RIN) impose aux avocats une obligation de vérification de leurs sources. Beaucoup ignoraient, jusqu’à récemment, que cette règle s’appliquait aussi aux informations issues d’outils génératifs. Le Conseil National des Barreaux a entrepris de sensibiliser la profession en 2025, sans pour autant mettre en place de cadre contraignant.
À l’échelle européenne, le règlement sur l’intelligence artificielle adopté en 2024 prévoit une application progressive pour les systèmes à haut risque à partir d’août 2026. Un calendrier qui laisse encore plusieurs mois pendant lesquels la profession devra s’autoréguler. En attendant, le nombre de nouveaux cas continue d’augmenter de mois en mois, malgré les condamnations médiatisées outre-Atlantique.
La crise des hallucinations juridiques ne se résume pas à un problème de déontologie professionnelle. Elle révèle une tension plus profonde entre la vitesse d’adoption des outils d’IA et la capacité des institutions à en encadrer les usages. Le droit, par sa culture de la vérification et sa transparence procédurale, est l’un des rares secteurs à documenter systématiquement ces dérives. Ce que la base de Charlotin recense dans les prétoires n’est sans doute que la partie visible d’un phénomène bien plus large, dans des domaines où les garde-fous sont moins visibles — et les sanctions, bien moins immédiates.










