Depuis l’apparition des grands modèles linguistiques, les médias et les experts tirent la sonnette d’alarme : le contenu généré peut être incorrect. Ce message n’a pas été entendu par tous.
Un avocat new-yorkais a cité des cas qui n’existaient pas en utilisant ChatGPT, sans savoir qu’il inventait de l’information.
L’affaire en question concernait un homme qui poursuivait une compagnie aérienne pour de prétendus dommages corporels, affirmant qu’il avait été frappé au genou par un chariot de service au cours d’un vol.
La compagnie aérienne a déposé une requête en irrecevabilité. L’équipe juridique du plaignant souhaitait utiliser ChatGPT pour défendre la position de son client.
Le document d’accusation soumis par l’équipe juridique cite des exemples de cas juridiques inexistants créés par ChatGPT, avec de longues citations apparemment exactes, telles que « Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019) ».
Le document est daté de début mars, les parties inventées ont donc été générées à l’aide de GPT-3.5, qui est encore moins fiable en termes d’exactitude des faits que GPT-4.
Fausses décisions de justice avec fausses citations et fausses références internes
Le tribunal a demandé des copies des affaires, et l’équipe juridique a de nouveau demandé à ChatGPT plus de détails sur les affaires. ChatGPT n’a pas tardé à répondre, inventant de nombreux détails sur les cas fictifs, que l’équipe juridique a joints à l’acte d’accusation sous forme de captures d’écran – y compris l’interface de ChatGPT sur un smartphone ( !).
Les avocats de la compagnie aérienne ont continué à contester l’authenticité des cas, ce qui a incité le juge à demander à nouveau un commentaire à l’équipe juridique du plaignant.
Le tribunal a été confronté à une situation sans précédent. Un document soumis par l’équipe juridique du plaignant en opposition à une requête en irrecevabilité est truffé de citations de cas inexistants. [Six des cas présentés semblent être de fausses décisions de justice, avec de fausses citations et de fausses références internes.
Ordonnance de justification
Dans une déposition ultérieure, Steven A. Schwartz, l’avocat responsable de la recherche, admet avoir utilisé ChatGPT pour la première fois dans le cadre de la recherche sans savoir que le système pouvait générer de faux contenus. ChatGPT avait « garanti » l’exactitude de ses sources lorsqu’il avait été interrogé.
Un avocat regrette d’avoir utilisé ChatGPT
M. Schwartz a plus de 30 ans d’expérience dans le domaine juridique. Dans une déclaration, il s’est excusé d’avoir utilisé le chatbot. Il a déclaré qu’il ne savait pas que les informations générées pouvaient être fausses. À l’avenir, il a déclaré qu’il n’utiliserait pas l’intelligence artificielle comme outil de recherche juridique sans vérifier les informations générées.
Des captures d’écran montrent des conversations entre Schwartz et ChatGPT, dans lesquelles l’avocat demande les sources des affaires citées et le système promet une « double vérification » dans des bases de données juridiques telles que LexisNexis et Westlaw. Cependant, il est de la responsabilité de Schwartz de ne pas se fier à ces informations sans vérification.
L’avocat et ses collègues devront se justifier devant le tribunal le 8 juin pour ne pas être sanctionnés. Il est possible que la recherche de précédents avec ChatGPT devienne elle-même un précédent sur les raisons pour lesquelles ChatGPT ne devrait pas être utilisé pour la recherche, ou ne devrait pas être utilisé sans authentification – et un avertissement pour l’industrie. Avec le contenu du décodeur.