Skip to main content

Sanction pour une avocate ayant cité des cas fictifs générés par ChatGPT

Une avocate en Colombie-Britannique a été condamnée à payer les frais de la partie adverse pour avoir cité deux affaires inexistants générés par l’intelligence artificielle dans une requête déposée au tribunal.Dans un litige de garde d’enfant, une avocate de Vancouver, Chong Ke, a déposé une demande, en décembre 2023, au nom de son client fondée sur deux jurisprudences.Les avocats de la partie adverse, préparant leur défense mais ne trouvant pas ces jurisprudences, en ont demandé une copie à l’avocate.

C’est là que celle-ci s’est aperçu que les jurisprudences en cause n’existaient pas ! En fait, l’avocate a utilisé ChatGPT, l’intelligence artificielle (IA) capable de générer du texte, lors de la constitution de son dossier.Malheureusement pour elle, l’IA a tout simplement inventé ces deux affaires. L’avocate a alors retiré ces deux affaires de sa demande, présenté une lettre d’excuses et chargé l’associé qui devait comparaître à une audience à sa place de confirmer que les affaires étaient fausses. Mais l’affaire n’a pas été entendu ce jour-là et l’associé n’a pas pu remettre copie de l’admission de son erreur aux avocats adverses. L'avocate a, par la suite, dû faire une déclaration sous serment dans laquelle elle soulignait son "manque de connaissance" des risques liés à l'utilisation de ChatGPT et qu’elle a été mortifié en découvrant que les cas qu’elles avaient présentés étaient fictifs.Dans sa déposition, l’avocate indique qu’elle n’avait "pas l'intention de générer ou de faire référence à des cas fictifs dans cette affaire" et qu’il s’agissait "clairement [d’] une erreur" et ce n'est pas quelque chose qu’elle ferait "en toute connaissance de cause". Elle ajoute qu’elle n’a "jamais eu l'intention de [s']appuyer sur des autorités fictives ou d'induire le tribunal en erreur". Le juge David Masuhara, de la Cour suprême de la Colombie-Britannique, a rappelé que "citer de fausses affaires dans les dossiers et autres documents remis au tribunal constitue un abus de procédure et équivaut à faire une fausse déclaration au tribunal" et que "si l'on n'y prend garde, cela peut conduire à une erreur judiciaire". Le juge a considéré que les actions de l’avocate avaient produit "une publicité négative importante" et qu'elle était "naïve quant aux risques liés à l'utilisation de ChatGPT", mais il a retenu qu'elle avait pris des mesures en vue de corriger ses erreurs.Le juge a estimé que l’avocate n’avait "pas eu l'intention de tromper ou d'induire en erreur", que ses excuses étaient sincères et qu’elle avait clairement exprimé des regrets lors de sa comparution et dans ses observations orales devant le tribunal.En conséquence, le juge a condamné l’avocate à payer les frais de la partie adverse mais n’a pas accordé de dépens spéciaux.Le juge a relevé que "cette affaire a mis en lumière le fait que l'intelligence artificielle générative n'est toujours pas un substitut à l'expertise professionnelle que le système judiciaire exige des avocats". L'ordre des avocats de la Colombie-Britannique a ouvert une enquête sur la conduite de l’avocate Ke, rappelant que "la Law Society a publié des conseils aux avocats sur l'utilisation appropriée de l'IA, et s'attend à ce que les avocats se conforment aux normes de conduite attendues d'un avocat compétent s'ils utilisent l'IA pour servir leurs clients".