Desde la aparición de los grandes modelos de lenguaje, los medios de comunicación y los expertos han estado lanzando la alarma: el contenido generado puede ser incorrecto. Este mensaje no ha sido escuchado en todas partes.

Un abogado de Nueva York citó casos inexistentes utilizando ChatGPT, sin saber que estaba inventando información.

El caso en cuestión involucra a un hombre que demanda a una aerolínea por presuntos daños personales, alegando haber sido golpeado en la rodilla por un carrito de servicio durante un vuelo.

La aerolínea presentó una moción para desechar el caso. El equipo legal del demandante quería utilizar ChatGPT para argumentar la posición de su cliente.

El documento de acusación presentado por el equipo legal cita ejemplos de casos legales inexistentes creados por ChatGPT, con citas largas y aparentemente precisas como «Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)».

El documento está fechado a principios de marzo, por lo que las partes inventadas fueron generadas utilizando GPT-3.5, que es aún menos confiable en cuanto a precisión factual que GPT-4.

Decisiones judiciales falsas con citas y referencias internas falsas
El tribunal solicitó copias de los casos, y el equipo legal volvió a pedir detalles adicionales sobre los casos al ChatGPT. El ChatGPT no tardó en responder, inventando numerosos detalles sobre los casos ficticios, que el equipo legal adjuntó a la acusación en forma de capturas de pantalla, ¡incluyendo la interfaz del ChatGPT en un teléfono inteligente!

Los abogados de la aerolínea continuaron cuestionando la autenticidad de los casos, lo que llevó al juez a pedir otro comentario por parte del equipo legal del demandante.

El Tribunal se enfrenta a una circunstancia sin precedentes. Un documento presentado por el equipo legal del demandante en oposición a una solicitud de archivo está repleto de citas de casos inexistentes. […] Seis de los casos presentados parecen ser decisiones judiciales falsas, con citas falsas y referencias internas falsas.

Ordem para Justificar

En un testimonio posterior, Steven A. Schwartz, el abogado responsable de la investigación, admite haber utilizado ChatGPT por primera vez para la investigación sin ser consciente de que el sistema podría generar contenido falso. ChatGPT le había «asegurado» la precisión de sus fuentes cuando se le preguntó.

El abogado se arrepiente de haber utilizado ChatGPT

Schwartz tiene más de 30 años de experiencia en el campo legal. En una declaración, se disculpa por haber utilizado el chatbot. Afirma que desconocía que la información generada pudiera ser falsa. En el futuro, afirma que no utilizará la inteligencia artificial como herramienta de investigación legal sin verificar la información generada.

Sin embargo, el chatbot de OpenAI hizo que Schwartz creyera en las mentiras: las capturas de pantalla muestran conversaciones entre Schwartz y ChatGPT, en las que el abogado solicita fuentes para los casos citados y el sistema promete una «verificación doble» en bases de datos legales como LexisNexis y Westlaw. Sin embargo, es responsabilidad de Schwartz no confiar en esta información sin verificarla.

declaração

El abogado y sus colegas tendrán que justificar en el tribunal el 8 de junio por qué no deben ser disciplinados. Es posible que la investigación de precedentes con ChatGPT se convierta en un precedente en sí mismo de por qué no se debe utilizar ChatGPT para la investigación, o no se debe utilizar sin autenticación, y sea una advertencia para la industria. Con contenido del the decoder.