Cargando. Por favor, espere

Primer abogado en problemas por usar ChatGPT para defender un caso y no comprobar la veracidad del contenido ofrecido

Primer abogado en problemas por usar ChatGPT para defender un caso y no comprobar la veracidad del contenido ofrecido

  • 29-5-2023 | LA LEY
  • El letrado citó en un escrito de oposición una serie de sentencias que ChatGPT incluyó en respuesta a la consulta que aquél le formuló y que resultaron ser inexistentes.
Portada

Carlos B Fernández. Muchas de las miles de noticias publicadas a lo largo de los últimos meses en torno a ChatGPT coinciden en un aspecto: no debe utilizarse la información suministrada por este sistema, en especial para fines profesionales, sin cotejar previamente su veracidad. La razón es que este chat es capaz de construir frases tan perfectamente coherentes desde el punto de vista gramatical y lógico, como incorrectas, inexactas o, directamente, falsas.

Ignorar este consejo ya ha tenido su primera consecuencia conocida, en los Estados Unidos. Un abogado utilizó como argumento para sostener su demanda contra una compañía aérea, un modelo elaborado por el ChatGPT en el que se incluía la cita de una serie de sentencias que apoyaban su argumento. El problema: ninguna de esas sentencias existe en la realidad, por lo que ahora, el abogado se enfrenta a un problema de responsabilidad profesional ante el colegio profesional de Nueva York.

Tal como explica Benjamin Weiser en The New York Times, el caso se inició como otro muchos: Un hombre llamado Roberto Mata demandó a la compañía aérea Avianca, alegando que se había producido unas lesiones cuando un carro metálico de los empleados a bordo le golpeó la rodilla durante un vuelo a Nueva York.

Cuando la compañía pidió a un juez federal de Manhattan que desestimara el caso, los abogados de Mata se opusieron, presentando un escrito de 10 páginas en el que además de un análisis de la legislación federal aplicable al caso, citaban más de media docena de decisiones judiciales relevantes (Martínez contra Delta Air Lines; Zicherman contra Korean Air Lines y Varghese contra China Southern Airlines).

El problema surgió cuando nadie, ni los abogados de la aerolínea, ni el propio juez, pudieron encontrar dichas sentencias en ninguna de las bases de datos consultadas.

Y es que, como acabó reconociendo el abogado que presentó el escrito, Steven A. Schwartz, del bufete Levidow, Levidow & Oberman, este había sido elaborado por ChatGPT. Y ChatGPT había alucinado, inventado dichas resoluciones. Lo cual ha situado a dicho letrado ante una situación notablemente incómoda que, por lo demás, podría acarrearle responsabilidades profesionales.

Tal como informa Wieser, el abogado reconoció ante el tribunal, por medio de una declaración jurada, que había utilizado el programa de inteligencia artificial para hacer su investigación jurídica, pero que dicha fuente se había revelado " poco fiable”, declaró.

Este abogado, que lleva tres décadas ejerciendo la abogacía en Nueva York, explicó al al juez P. Kevin Castel que no había tenido intención de engañar al tribunal o a la aerolínea, que nunca antes había utilizado ChatGPT, y que "por lo tanto no era consciente de la posibilidad de que su contenido pudiera ser falso". Es más, añadió, cuando le pidió al programa que verificara si los casos eran reales, la respuesta fue afirmativa.

Y pese a que el letrado dijo que "lamenta enormemente" haber confiado en ChatGPT y que “nunca lo hará en el futuro sin una verificación absoluta de su autenticidad", el juez ha ordenado una vista para el 8 de junio para estudiar la procedencia de posibles sanciones al letrado (en los Estados Unidos, son los tribunales quienes autorizan el ejercicio profesional de los abogados).

Diálogo con ChatGPT

Según explicó este abogado, había consultado a ChatGPT "para complementar" su propio trabajo y que, "tras consultarlo", este sistema le citó la media docena de casos inexistentes. Ante su pregunta de si "¿Es Varghese un caso real?", el sistema le respondió que "Sí", añadiendo que "es un caso real".

Schwartz indagó más. "¿Cuál es su fuente?", escribió. "Pido disculpas por la confusión anterior", respondió ChatGPT, ofreciendo una cita legal. "¿Son falsos los otros casos que ha proporcionado?", preguntó Schwartz.

ChatGPT respondió: "No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas". Pero, por desgracia para este abogado, no era así.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll