Cargando. Por favor, espere

ChatGPT: Un nuevo hito para la automatización del Derecho, con muchos problemas que resolver todavía

Fernández Hernández, Carlos

Diario LA LEY, Nº 68, Sección Ciberderecho, 10 de Enero de 2023, LA LEY

LA LEY 7845/2022

GPT3 y ChatGPT son dos sistemas capaces de ofrecer respuestas, en forma de documentos o, sencillamente, texto, ante prácticamente cualquier pregunta formulada por un humano y con un alto nivel de precisión. A la vista de la capacidad de ambos sistemas para generar documentos o responder respuestas, no han faltado las voces que han advertido del riesgo que estas herramientas pueden suponer para el sector jurídico y, en particular para la abogacía y las empresas suministradoras de contenidos para estos profesionales. Para conocer con mayor precisión las capacidades reales de los sistemas, hemos acudido a distintos expertos tecnológicos y jurídicos.

El mundo de la tecnología se ve frecuentemente impactado por la llegada de nuevos avances, de características cada vez más sorprendentes. Cuando esos avances pueden tener, además, aplicación en el ámbito del Derecho, suelen arreciar los pronósticos, generalmente agoreros, sobre sus posibles efectos en el sector.

Una de las últimas novedades en producir tales efectos ha sido el sistema ChatGPT, un chatbot conversacional que responde a preguntas formuladas en lenguaje natural, desarrollado por Open AI, una compañía con sede San Francisco (California), fundada en 2015, entre otros por Elon Musk (que hoy no desempeña funciones ejecutivas en la misma) y fuertemente participada por Microsoft. Se trata de una aplicación de la versión 3 de GPT (por Generative Pre-trained Transformer), un programa de generación de textos, lanzado en mayo de 2022.

Ambos sistemas, al igual que DALL-E, otro programa desarrollado por la misma empresa, capaz de generar imágenes sintéticas a partir de peticiones realizadas en lenguaje natural, han sido desarrollados por medio de avanzadas tecnologías de aprendizaje profundo de máquinas o Deep Learning y se enmarcan en una de las modalidades que puede ofrecer la IA denominada Generative AI, o IA generadora de contenidos, para diferenciarla de aquellas otras que ofrecen recomendaciones o predicciones. En el caso de GPT, además, se espera una versión 4 para comienzos de 2023.

En este caso, se trata de dos sistemas capaces de ofrecer respuestas, en forma de documentos o, sencillamente, texto, ante prácticamente cualquier pregunta formulada por un humano y con un alto nivel de precisión.

A la vista de la capacidad de ambos sistemas para generar documentos o responder respuestas, no han faltado las voces que han advertido del riesgo que estas herramientas pueden suponer para el sector jurídico y, en particular para la abogacía y las empresas suministradoras de contenidos para estos profesionales.

Para conocer con mayor precisión las capacidades reales de estos sistemas, hemos acudido a un grupo de expertos tecnólogos y jurídicos, como son Pablo Haya Coll, Director del área de Social Business Analytics en el Instituto de Ingeniería del Conocimiento (IIC); Marta Guerrero Nieto, Coordinadora de los proyectos de Procesamiento del Lenguaje Natural (PLN) en el Instituto de Ingeniería del Conocimiento (IIC); Paloma Llaneza, CEO y Head of Information Technology de Razona LegalTech; Maite Sanz de Galdeano, Abogada digital, especializada en protección de datos y nuevas tecnologías y Moisés Barrio, Letrado del Consejo de Estado, Profesor de Derecho digital y director del Diploma de Alta Especialización en Legal Tech y transformación digital de la Universidad Complutense de Madrid, quienes nos han explicado lo siguiente.

1. ¿Qué es GPT-3 y cuáles son sus capacidades actuales?

Paloma Llaneza explica que GPT3 y el ChatGPT son dos herramientas potentísimas que, aunque todavía se encuentran en estado de «beta», ya son sorprendentes en sus resultados.

GPT3 es un modelo lingüístico autorregresivo que utiliza el aprendizaje profundo para producir un texto similar al humano. Ha sido entrenado con más de 175.000 millones de parámetros en 45 TB de texto procedente de todo Internet.

Las capacidades de GPT-3 incluyen la creación de artículos, poesías e historias utilizando solo una pequeña cantidad de texto de entrada. También puede generar resúmenes de texto y escribir código en lenguajes como Python, CSS y JSX, entre otros. Las versiones más recientes de GPT-3 son incluso capaces de editar o insertar contenido en un texto existente, lo que lo hace apto para la revisión de contenidos, como la reescritura de un párrafo de texto o la refactorización de código. La calidad del texto generado por GPT-3 es tan alta que puede ser difícil determinar si ha sido escrito por un humano o no.

1.1. ¿Qué utilidad puede tener GPT-3 en el ámbito jurídico?

Para responder a esta pregunta, Maite Sanz de Galdeano advierte que conviene diferenciar las utilidades que incluye la versión de GPT ofrecido por OpenIA, abierto al público en su PlayGround y las que puede ofrecer Microsoft, que es el licenciatario exclusivo.

En el primero de los casos, dada la incertidumbre de la información con la que se entrena (internet en general), sin consultarla o actualizarla y los problemas de sesgos y de privacidad, la utilidad para el mundo legal, en estos momentos, se reduce bastante. No podemos fiarnos de los resultados que da, puesto que el sistema no interpreta la información, sino que sencillamente vuelca aquello que ha leído previamente. La coherencia en sus respuestas es meramente sintáctica. Este grado de incertidumbre no es aceptable para nuestro sector, salvo que los resultados sean supervisados siempre por un abogado. Es decir, sólo puede servir para hacer aquello que ya sabemos, pero más rápido.

Sin embargo, si se utilizan las utilidades disponibles en Microsoft, que permiten entrenar a la máquina con corpus legales generales (con los que aprende la gramática) y anotados (para resolver tareas concretas), las posibilidades son mucho mayores. Así, el sistema podría ser entrenado para crear modelos de contratos —diversificados según diferentes públicos—, respuestas a consultas jurídicas y resúmenes, aunque al beber (además de los corpus elegidos) de la información general con la que se ha entrenado GPT-3 aún son muchas las incertidumbres que se plantean. No en vano, Microsoft alerta de que no se puede utilizar para determinados fines, debido al «riesgo de generar respuestas no deseadas o indeseables».

1.2. ¿Cuáles pueden llegar a ser sus capacidades a medio y largo plazo (2-5 años)

Paloma Llaneza explica que, del uso de la herramienta hemos comprobado que está muy entrenado en el sistema legal anglosajón, dando resultados muy completos cuando se le pide que explique instituciones de este modelo o que genere textos legales como contratos.

En español, es capaz de generar contratos sujetos a derecho español (y no de Colombia o México) con cierta precisión. Es capaz de contestar preguntas de derecho mejor que una base de datos clásica, aunque también es capaz de inventarse delitos que no existen. Por tanto, en estos momentos no es una herramienta para el púbico general, sino para abogados y despachos con cierta experiencia que puedan determinar la calidad de los resultados.

En opinión de esta experta, las capacidades de GPT-3 a 2-5 años dependen de los datos de entrenamiento que se le faciliten, ya que hemos observado que hace mejor los contratos, porque puede acceder a ellos con más facilidad, que las demandas.

Por tanto, cuanto más usen la herramienta los juristas, más entrenada estará y más se usará, generando un círculo de mejora de aceleración rápida.

Además, añade Llaneza, la herramienta permite el fine tuning personalizado, esto es, entrenar a la IA solo para un usuario, con los datos específicos que este le proporcione. «Si eres un abogado especializado, por ejemplo, en IP, le puedes alimentar con tu propia base documental y beneficiarte solo tú del resultado. El coste de hacerlo así es ridículo, aunque se requieren ciertos conocimientos de programación que pueden ser sorteados a través de los servicios de Azure de Microsoft». Por ello considera que, si se le da acceso a bases como la de Poder Judicial, muchos juristas lo usan, y hay entrenamientos particulares que, no podemos negarlo, redundará en el afinamiento general de la herramienta, GPT puede ser imparable.

Más prudente, Maite Sanz de Galdeano no se atreve a anticipar cuáles pueden llegar a ser sus capacidades, puesto que su evolución es exponencial y se desconoce hasta dónde puede llegar.

Por ahora, destaca esta experta que el cambio de GPT-3 a ChatGPT ya ha sido increíble. Por ello creo que, en breve, esta va a ser una herramienta fundamental para cumplir con la necesidad de ofrecer textos jurídicos comprensibles. La claridad y comprensibilidad de un contrato o de una cláusula va a depender del cliente concreto (teniendo en cuenta la edad, lengua, nivel cultural, experiencia en el sector del mercado, etc.), y el sistema podrá proponer cláusulas adaptadas para cualquier tipo de cliente, algo que se irá convirtiendo en una obligación, porque la jurisprudencia acabará entendiendo que la cláusula no es en sí clara u oscura, sino que lo será en relación al tipo de cliente concreto. En este sentido, indica por ejemplo, ya tenemos la Ley 8/2021 que reconoce el derecho de las personas con discapacidad a entender cualquier actuación judicial. Con recursos humanos es imposible o muy complicado adaptar el contrato o texto jurídico a los grupos de destinatarios concretos, pero con un sistema IA será automático.

Además, considera que es evidente que, como mínimo, con estas herramientas se afinarán las utilidades de búsqueda de información, consultas jurídicas y contratos y formularios procesales.

¿Se imaginan, plantea, que, en vez de buscar y encontrar sentencias por voces, podamos pedir un informe jurisprudencial sobre una materia? Igual puede ocurrir con un informe de derecho comparado, de opiniones doctrinales, de vías legales para conseguir un objetivo o de soluciones para alcanzar un acuerdo en caso de posiciones enfrentadas. Esto sí está al alcance en un período de cinco años. ¿Borradores de sentencia? Es cuestión de tiempo.

1.3. ¿Qué amenaza para el trabajo de los juristas pueden significar esas capacidades futuras?

En opinión de Paloma Llaneza, en un plazo corto estas funcionalidades podrán amenazar a las entidades y editoriales que prestan servicios de contenido y, a medio plazo, a cualquier abogado que base su negocio en tareas repetitivas o en usar modelos con más o menos acierto, ya que será capaz de prestar contenidos jurídicos con exactitud a cualquiera que pague 2 céntimos de euro por 750 palabras (el precio actual de la opción de pago de GPT).

Además, indica Llaneza, será capaz, por una cuantía irrisoria, de solucionar problemas complejos y poner en relación soluciones que llevarían largo tiempo de estudio.

Pensemos, además, que el cliente que necesita ver en persona al abogado y tener un trato más cercano tiende demográficamente a desaparecer, siendo sustituido por generaciones que no contestan el teléfono, que quieren relaciones asíncronas y con poco trato personal. Para esa generación esta herramienta sustituirá a un número elevado de abogados consultivos.

Por otro lado, OpenAI pondrá en manos de cualquier abogado una herramienta potentísima de pensamiento y contenidos que harán indiferenciables los trabajos de un gran despacho del de un solo profesional. Así pues la diferenciación y el valor añadido cada vez se reducirá más y encontrarlo será cada vez más complicado.

Coincide con esta apreciación Maite Sanz de Galdeano quien añade que en todas aquellas tareas en las que no aportemos un plus, nuestro trabajo estará amenazado. Todo aquel que se dedique a ofrecer modelos de contratos, consultas sencillas, búsqueda de documentos, resúmenes, e incluso informes sobre algunas materias, acabará siendo expulsado del mercado, por prescindible.

1.4. ¿Y qué oportunidades ofrece esta tecnología?

Pero no todo son malas noticias para la profesión. Como destaca Sanz de Galdeano, más que en la amenaza que puede suponer, debemos pensar en las oportunidades que nos va a ofrecer.

En este sentido prevé que los abogados lo van a incorporar a su actividad como una herramienta más, tal y como se hizo en su día al incorporar el ordenador o la jurisprudencia vía digital, pero teniendo en cuenta que siempre hará falta nuestro trabajo.

Por ejemplo, la redacción automatizada de cláusulas contractuales ahorrará trabajo, simplificará y estandarizará los formularios contractuales, cubriendo lagunas y omisiones. Pero las cláusulas contractuales son un reglamento cuyo significado cambia según dónde vaya a aplicarse y según cuáles sean los conflictos que se planteen, por lo que son trascendentales las reglas de interpretación. En caso de conflicto entre las partes, los contratos serán leídos, por jueces o árbitros, según esas reglas de interpretación. Y esto puede tener consecuencias muy importantes de las que será responsable el abogado o servicio jurídico que haya intervenido en la confección del contrato: las dudas que genere la redacción oscura de la cláusula se interpretarán siempre en contra de quien lo ha prerredactado (art. 1.288 CC (LA LEY 1/1889)), y no valdrá como excusa que la duda la haya provocado la máquina. Dicho de otro modo, es importante destacar que la lectura y validación de los textos contractuales propuestos por el sistema IA deberá hacerse desde las normas de interpretación de los contratos (arts. 1281 a (LA LEY 1/1889)1289 CC (LA LEY 1/1889)). Sin embargo, como se ha visto, estos sistemas IA no pueden anticipar los problemas posibles de interpretación. Nuestra supervisión será necesaria.

Además, esas reglas de interpretación cambian según en qué países vayan a cumplirse los contratos. Hay una diferencia sustancial en esto entre el derecho anglosajón y el derecho continental: en el derecho anglosajón los contratos se interpretan, en general, en sus propios términos mientras que, en el derecho continental, la interpretación de los contratos es más flexible, busca la intención real de los contratantes. Así, en general será más útil que los sistemas de IA propongan cláusulas «al estilo anglosajón», es decir, con más minuciosidad y detalle, para evitar en todo lo posible las dudas sobre su significado. Y, en definitiva, no será lo mismo que esté fundamentalmente basado en contratos y cláusulas de contratos españoles, continentales, o también anglosajonas. GPT-3 puede acabar siendo un interesante, pero también peligroso, instrumento de uniformización internacional del Derecho…

Por último, hasta que el sistema pueda trabajar con contratos enteros, se limitará a redactar cláusulas concretas. Esto puede ocasionar una fragmentación que origine serias dudas interpretativas, porque «las cláusulas de los contratos deberán interpretarse las unas por las otras, atribuyendo a las dudosas el sentido que resulte del conjunto de todas» (art. 1.285 código civil (LA LEY 1/1889)). Por eso, ante el riesgo de que el sistema atomice el contrato y no relacione unas con otras, generando discordancias e incluso contradicciones, con la consiguiente confusión, será fundamental la supervisión humana mientras los sistemas no se perfeccionen y puedan elaborar borradores de contratos concebidos como una unidad.

1.5. ¿Serán necesarias garantías jurídicas frente a la utilización de esas capacidades, tanto por lo que se refiere a profesionales como a ciudadanos?

Maite Sanz de Galdeano responde a esta pregunta matizando que depende del uso que se le vaya a dar.

Personalmente, añade, me gustaría saber cuándo un texto ha sido generado por GPT-3 y supongo que es una opinión generalizada, máxime si ese texto puede afectar a mis derechos en alguna medida.

Para estos casos (usos legales, médicos, etc.), continúa, creo que debería exigirse la indicación de que ha sido elaborado por este sistema (y supervisado por un profesional). Para el resto de casos, los ciudadanos deberán ser conscientes de que lo que lean a partir de ahora puede haber sido generado con GPT-3, con los riesgos de desinformación que eso supone.

Nunca antes había sido tan importante la firma de un texto. A partir de ahora, firmar va a suponer una declaración de principios. De hecho, parece ser que OpenIA está trabajando para añadir una «marca de agua» a sus textos (insertará un token), que será imperceptible al ojo humano pero que podrá ser detectada por algunas herramientas tales como los programas antiplagio. Es una medida buena pero insuficiente para esos casos en los que un particular reciba cierta información y no tenga manera de saber si la ha elaborado un profesional o una máquina.

Otro riesgo importante es el de la excesiva «protocolización del Derecho», o de cualquier otra materia, es decir, la eliminación de matices, singularidades y excepciones a lo común y general, como consecuencia de la autocorroboración que supone el modo mismo de ser de GPT-3: los documentos que resulten de su utilización pasarán a su vez a alimentar a los sistemas, lo que consolidará sesgos y tendencias por razones simplemente numéricas.

Finalmente, señala, la protección de los derechos individuales y de las minorías, que por su naturaleza exigen un refuerzo frente a la inercia, podría requerir mecanismos públicos de supervisión.

En opinión de Paloma Llaneza, la abogacía debe evolucionar y debe ser prestada con lealtad y transparencia. Por ello, cree que no se va a poder cobrar, y mucho menos cantidades importantes, por un conocimiento que va a estar disponible, con reflexión y pensamiento, a un golpe de clic por apenas nada.

Además, si un abogado usa esta tecnología y su contenido lo traslada al cliente sin aportar nada más, defrauda a este y a la confianza que la sociedad pone en nosotros.

Por otra parte, concluye, en esta reformulación de nuestra profesión, la reserva de función va a tener cada vez menos sentido. Hay que identificar, por tanto, en donde somos garantes de los derechos de los ciudadanos y, ahí, exigírsenos un comportamiento ejemplar. Otra cuestión será cómo generamos modelos de negocio viables en este nuevo panorama.

2. ¿Qué es ChatGPT y cuáles son sus capacidades actuales?

Pablo Haya Coll nos explica que ChatGPT es un sistema conversacional que responde a las peticiones del usuario. Es un sistema de carácter generalista, esto es, que responde a cualquier tipo de preguntas y peticiones.

Como añade Marta Guerrero, los usos de Chat GPT son numerosos. Puede responder a preguntas, redactar una noticia, realizar un resumen de un documento, puede realizar la traducción del texto, puede reordenar o analizar parte concretas del documento, puede extraer información, etc.

Así, una de sus capacidades es redactar plantillas sencillas de documentos jurídicos por ejemplo un contrato de trabajo, como se puede ver en el ejemplo adjunto.

Sin embargo, advierte Guerrero, en muchas ocasiones este resultado puede resultar demasiado básico, por lo que habrá que revisarlo de forma muy minuciosa para asegurarse de que cumplen con la legalidad, ya que uno de los fallos que tienen esta herramienta es que responde convencido de que la respuesta es veraz. Como se ha visto por muchos usuarios de ChatGPT en las redes, las respuestas no son siempre correctas, a veces son infantiles, pueden ser muy genéricas o incluso alejarse de la realidad.

2.1. ¿Qué aplicaciones puede tener ChatGPT en el ámbito jurídico?

En opinión de Pablo Haya, las capacidades que tiene ChatGPT para el ámbito jurídico son las mismas que para otros ámbitos. Simplemente hay que adaptar las preguntas. Se pueden crear ejemplos similares en otros sectores.

Las características de ChatGPT le permiten:

  • Recuperación de información

    Nótese que, en este caso, está deliberadamente mal escrita la pregunta

    Además, ChatGPT mantiene el contexto de la conversación lo cual hace que el diálogo sea muy natural, como se puede ver en el siguiente ejemplo, continuación del anterior:

  • Parafrasear

  • Resumir texto

Marta Guerrero nos propone otros ejemplos:

También puedes preguntar a ChatGPT por casos muy conocidos del ámbito judicial que hayan sido muy mediáticos, pero siempre que sean del pasado, y el modelo disponga de datos al respecto, pues si se le pregunta por un caso actual no contestará.

También se le puede pedir que aporte la definción de terminología jurídica (pero en ese caso, solo un experto podría llegar a saber si esas definiciones son adecuados o se está hablando de definciones para un usuario no experto en la materia).

2.2. ¿Qué limitaciones presenta ChatGPT?

Según Haya, la versión actual de la aplicación tiene limitaciones serias que es preciso tener muy presente.

Por una parte, al ser un sistema generalista es muy fácil que cometa errores en preguntas o peticiones específicas de un dominio. Por ejemplo, ante la pregunta: ¿me puedes decir cuál es la edad mínima para abortar sin consentimiento paterno en España, y el artículo que lo regula? Responde:

El artículo al que hace referencia ChatGPT no corresponde con la pregunta que se le ha hecho (al igual que sucede con la respuesta que ofrece el buscador de Google). Aunque el Congreso ha dado luz verde a la reforma de la Ley, este jueves 15, lo cierto es que la búsqueda se ha realizado un día antes, cuando la ley vigente no establece ese dato, que se corresponde a la redacción original de la Ley del 2010.

Esto es un inconveniente serio para poder utilizarlo ya que puede generar respuestas que sean plausibles, pero falsas. Es posible que el lector haya notado que la mayoría de las citas generadas en el segundo ejemplo presentado más arriba nunca fueron pronunciadas por los autores referenciados.

Estos sistemas se basan en componer frases gramaticalmente correctas. Para generar las respuestas el sistema tiene en cuenta las conversaciones y textos con los que fue entrenado. Este sistema, actualmente, no accede a Internet ni a documentación o información en bases de datos. Todas las respuestas se generan en función de los datos con los que fue entrenado. Estos datos son textos descargados de Internet hasta 2021 tal como nos informa ChatGPT como respuesta a algunas preguntas.

Por ello, añade Guerrero, el sistema no cuenta con una versión actualizada, de manera que si le preguntas por el mundial de fútbol de Qatar, no te contestará por ejemplo. Ese es un peligro actual ya que el usuario no experto no tiene porqué conocer con qué datos ha sido entrenado o hasta qué fecha.

Además, continúa Haya, como se puede observar en los ejemplos, el sistema cuenta con cierta capacidad «creativa» de manera que genera respuestas que nunca ha visto en los textos originales con los que fue entrenado. Dado que el sistema emula extraordinariamente bien el lenguaje humano nos puede dar información verosímil que no tiene nada ver con la realidad. Cuando responde a preguntas triviales o relacionadas con temas que han sido tratados ampliamente, las respuestas son, en general, muy buenas, pero cuando le preguntamos por una variante mínima sobre un tema es muy fácil que la respuesta sea incompleta o, directamente, errónea.

Es importante destacar que cuando hablamos de temas comunes hay que considerar que ChatGPT ha sido entrenado con una cantidad ingente de documentos extraídos de Internet. Algunas respuestas nos pueden sorprender si no tenemos en cuenta que se tratan muchísimos temas de manera recurrente en Internet.

Esto ocurre en todos los dominios en los que se está probando ChatGPT. Por ejemplo, en el mundo de la programación se generó un entusiasmo, y a la vez un temor por perder el puesto de trabajo, desmedido con las primeras pruebas de generación de código fuente. Tras probar más intensivamente la plataforma se comprobó que el código que genera es muy propenso a incluir errores que son difícilmente detectables ya que la estructura del programa aparentemente responde a la petición.

Finalmente, el sistema tiene salvaguardas para no responder a preguntas en las que no está seguro, en particular, si le pides una opinión, pero no son suficientes como para evitar que genere información falsa. Al ser respuestas convincentes, esto puede generar frustración al tener que realizar revisiones en detalle de las respuestas. No incluye referencias externas a la documentación que ha utilizado para conformar la respuesta. Esto imposibilita utilizarlo, por el momento, en una actividad profesional en el sector jurídico.

En opinión de Moisés Barrio, se está produciendo una excesiva sobrevaloración de su impacto, y desde luego no es el paso previo para lograr una inteligencia artificial general. ChatGPT, al igual que LaMDA de Google o BlenderBot de Meta/Facebook, advierte, son en esencia sistemas de conversación, chatbots. Cada uno de estos sistemas utiliza colosales cantidades de datos generados por humanos para crear sistemas que, como señala Sundar Pichai, el CEO de Google, «siguen avanzando en nuestras capacidades conversacionales. La conversación y el procesamiento del lenguaje natural son formas poderosas de hacer que los ordenadores sean más accesibles para todos. Los grandes modelos lingüísticos son su clave».

Otra importante característica es que Open AI cuenta con una API para que cualquier programa de escritorio, App móvil o página web pueda utilizar sus capacidades, en un modelo de pago por volumen de uso. Para la 4.ª edición del Diploma de Alta Especialización en Legal Tech y transformación digital de la Escuela de Práctica Jurídica de la Universidad Complutense de Madrid que comienza en febrero de 2023 he preparado una aplicación para poder interactuar directamente con sus motores de IA. Las pruebas que he realizado hasta la fecha son bastante prometedoras para generar automáticamente código fuente, o incluso transformar consultas de lenguaje natural a sintaxis SQL. Lamentablemente por el momento la respuesta a cuestiones jurídicas no es satisfactoria.

Y es que, al estar basados en deep learning, técnicamente funcionan agrupando palabras y frases, pero estos sistemas no entienden el significado de lo que muestran. Este tipo de sistemas toma fragmentos de texto de los contenidos escaneados, los junta y los devuelve al usuario. Pero no comprende la relación entre estos fragmentos. El ejemplo de reputar muerto al filósofo Noam Chomsky es muy revelador: el bulo de su muerte prendió como la pólvora en redes sociales, e incluso algunos trolls crearon una publicación en Facebook que obtuvo casi un millón de «me gustas». Sin embargo, estos sistemas no comprendieron que una persona que imparte conferencias, seminarios y publica artículos no puede estar muerto.

En cuanto al mundo jurídico, estimo que todavía no podemos atisbar sus aplicaciones. Una de ellas va a ser la generación de contenidos. Pero las técnicas de deep learning no han sido capaces de procesar el conocimiento abstracto, por lo que no saben distinguir las relaciones entre normas, o entre grupos normativos, por ejemplo.

2.3. ¿Cuáles pueden llegar a ser las capacidades de ChatGPT a medio y largo plazo (2-5 años)?

En opinión de Marta Guerrero, en los últimos 3-4 años la revolución en el campo del Procesamiento del Lenguaje Natural (PLN) está siendo extraordinaria y seguramente en los próximos años se continúen con modelos cada vez más potentes y que hagan las distintas tareas de PLN con mayor precisión y capacidad. También es fácil pensar que los modelos se vayan especializando en tareas que tengan que ver con distintos sectores, por ejemplo sanidad, educación, legal, etc.

Explica Pablo Haya que ChatGPT ya hace tareas que son muy útiles para facilitar el trabajo del jurista.

Lo que tiene que superar en los próximos años es que sea fiable en las respuestas.

Según este experto, ahora mismo hay tres retos que tiene que superar. El primero es poder obtener información a partir de fuentes externas, por ejemplo, Internet. La versión actual se encuentra congelada en 2021, así cual información que se pida posterior a esa fecha no va a poder responder. O lo que es peor, va a responder incorrectamente sin darse cuenta. Además, esta limitación es importante desde el punto de vista de la veracidad. Igual que cuando buscas en Google tienes la referencia a las páginas o el documento donde se encuentra la información que buscas, ChatGPT tendrá que ser capaz también de incorporar esta información externa. Tal como vemos en la versión actual es muy fácil generar respuestas falaces si la respuesta se compone únicamente con los datos con los que fue entrenado. Otra opción sería ampliar el conjunto de datos y conversaciones de entrenamiento, pero me parece que esa vía no terminaría por cubrir toda la casuística de preguntas-respuestas que se pueden dar.

El segundo reto es particularizar la plataforma para los distintos dominios. Aquí, además de poder acceder a documentos externos, sí que tiene sentido realizar entrenamientos con conversaciones y textos específicos del sector. Este trabajo es la clave para llegar a un nivel de acierto en las respuestas adecuado para un uso profesional.

La última limitación es la longitud de los textos que pueden manejar los modelos de lenguajes actuales que está limitado a miles de palabras.

Ahora mismo, nosotros estamos participando en un proyecto con el Ministerio de Justicia en el que se realizan resúmenes de los documentos que se generan durante un juicio utilizando tecnologías alternativas a GPT-3. Aunque hay mucho trabajo por recorrer todavía. El camino a recorrer requiere generar colecciones de resúmenes específicos de calidad para el sector legal con los que entrenar, y evaluar los resultados tanto con expertos legales como lingüistas. En este camino es clave el impulso que está dando el estado español en abrir recursos de la administración y en dotar de financiación a través del PERTE de Nueva Economía del Lenguaje.

2.4. ¿Qué amenaza para el trabajo de los juristas cree que pueden significar esas capacidades futuras de ChatGPT?

Haya no aprecia amenazas serias en puestos de trabajo concretos, aunque hay tareas que indudablemente van a ser automatizadas. Creo que los profesionales del sector van a tener a su disposición una herramienta que les va a ayudar a escribir menos, y pensar más.

Es posible que haya casos de uso específicos, como demandas masivas o recurrentes, o preparación de documentación muy estandarizada, donde la automatización pueda suplir algún puesto de trabajo, o qué con el tiempo, no se repongan al mismo ritmo determinados puesto de la administración ya que con menos personal se realiza el mismo trabajo. En cualquier caso, creo que será un proceso lento en el que lo que se pierde no es el puesto de trabajo sino el reemplazo.

2.5. ¿Cree que serían necesarias garantías jurídicas frente a la utilización de esas capacidades, tanto por lo que se refiere a profesionales como a ciudadanos?

En relación con esta última cuestión, Haya considera que esas garantías deberían ser las mismas que se tienen en otros sectores.

Ahora mismo disponemos de sistemas de pilotaje automático que descargan de tareas y carga cognitiva a los pilotos, pero ello no les exime de ninguna responsabilidad. En el sector sanitario se están empezando a utilizar sistemas de apoyo en el diagnóstico y prescripción que ayudan a los facultativos a tomar mejores decisiones, pero de nuevo, siempre bajo su responsabilidad.

En opinión de este experto, la automatización completa va más allá de una cuestión tecnológica. ¿Podrá la IA reemplazar a un juez? Mi pregunta sería si la IA debería reemplazar a un juez. La impartición de la justicia está ineludiblemente ligada al ser humano. No podemos cambiar a un juez por una máquina porque estaríamos cambiando el concepto mismo de justicia. Es como sustituir los políticos por una máquina, estaríamos cambiando la democracia por una tiranía tecnológica.

Sin llegar a un caso tan extremo, hay múltiples situaciones en los que un análisis de coste-beneficio nos sale que el coste de cometer un error es «infinito» como para delegarlo completamente en una máquina. En una torre de control, cada controlador tiene asignado una zona del espacio, cuando un avión cambia de zona, el controlador le «pasa» el vuelo a su compañero con una tablilla de madera que tiene anotado los datos del vuelo. Que está operativa se siga haciendo de esta manera no es una cuestión de que no dispongamos de tecnológica para automatizar este proceso.

Finalmente, destaca Moisés Barrio, los creadores de Open AI no han divulgado qué experiencia o conocimientos tienen o utilizan realmente para responder las consultas. Por eso, sus respuestas no son seguras. Y plantea muchísimos interrogantes en materia de propiedad intelectual e industrial, comenzando por el hecho de que los conocimientos existentes se utilizan sin sus limitaciones reales ni el reconocimiento de su autoría u origen.

CONCLUSIÓN (provisional)

Escribía recientemente el profesor de la Universidad de Stanford Lance Eliot en Forbes que esta IA generativa facilita unos resultados muy impresionantes ante las consultas que se le plantean, pero también que nos engaña con una alta dosis de antropomorfismo, una trampa mental basada en ofrecer una respuesta de apariencia similar a la que emitiría un ser humano. Y es que, advertía, ChatGPT es tan inteligente como la cantidad de datos a los que tiene acceso, con todas las falsedades o incomplitudes que estos pueden incluir, y no reflexiona sobre el futuro. Además, incurre en el riesgo de ofrecer falsedades o sinsentidos, ya que no entiende su contenido, no distingue lo correcto de lo incorrecto y no ofrece transparencia sobre la fuente. Y finalmente, se pregunta sobre qué ocurriría si, aunque la apariencia de sus respuestas es perfectamente legítima, estuviera entrenado para ofrecer respuestas malintencionadas.

Pero Ethan Mollick, profesor asociado de la Wharton School de la Universidad de Pennsilvania, matizó poco después en la Harvard Business Review que la gran ventaja de GPTG es que, hasta ahora, la IA se dirigía sobre todo a problemas en los que fallar en el pronostico o el resultado resultaba caro para su usuario. Sin embargo, este chat se puede usar en muchas tareas en las que incurrir en un error de vez en cuando es barato y aceptable, o incluso en otras en las que los expertos pueden separar fácilmente los casos fallidos de los exitosos. Como explica este experto, un coche autónonomo que se accidente de vez en cuando es intolerable. Pero un artista de IA que hace algunos dibujos estupendos, pero también algunos malos, es perfectamente aceptable. Por ello, considera que aplicar la IA a tareas creativas y expresivas (como escribir textos de marketing) en lugar de a las peligrosas y repetitivas (como conducir una carretilla elevadora) abre un nuevo mundo de posibilidades.

La consecuencia, en su opinión, es que estamos ante un avance muy importante. Por ello, las empresas que comprendan la importancia de este cambio y actúen primero, tendrán una ventaja considerable sobre aquellas que no lo hagan. Sobre todo porque ChatGPT es solo el primero de muchos chatbots similares que pronto estarán disponibles, y cuya capacidad aumenta exponencialmente cada año.

Parece, podemos concluir por ahora, que el genio ha salido de la botella. Y aunque es un genio que todavía tiene mucho que aprender, su magia, sin necesidad de grandes conocimientos, está ya al alcance de muchos. Y los grandes cambios socio-tecnológicos se producen, precisamente, cuando la adopción de una nueva tecnología, llámese Internet, correo electrónico, Google, teléfono móvil o redes sociales, se convierte en masiva.

Los juristas y las empresas del sector tendrán que aprender a convivir con esta nueva disrupción. Y el Derecho tendrá que ofrecer respuestas a los interrogantes que la misma va a plantear.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll