Cargando. Por favor, espere

¿Cómo regular los grandes modelos de lenguaje como ChatGPT?

  • 5-4-2023 | Parlamento Europeo
  • Junto a las oportunidades que estos sistemas plantean en áreas como la gestión de textos y contenidos, sus características de opacidad y potencial para desarrollar capacidades inesperadas más allá de lo previsto por sus creadores, plantean una serie de interrogantes sobre cuál deberían ser el alcance y características de su posible regulación.
Portada

Carlos B Fernández. El enorme impacto global causado por ChatGPT y su pariente próximo, DALL-E, en todos los ámbitos sociales y económicos, ha planteado casi de inmediato la necesidad de su regulación.

Pero las particulares características de esta tecnología, ha puesto también de relieve la dificulta de dicha tarea.

Por ello, el servicio de estudios del Parlamento Europeo (European Parliamentary Research Service, o EPRS) ha elaborado un documento titulado At a glance - General-purpose artificial intelligence (De un vistazo – Inteligencia Artificial de propósito general), en el que, de manera tan sintética como precisa, analiza los principales rasgos de estos sistemas, las oportunidades y riesgos que plantean y las opciones de regulación que se están considerando.

Nuevas tecnologías con nuevas capacidades

El documento comienza destacando que los rápidos avances tecnológicos producidos en los últimos años, entre los que se incluyen los denominados grandes modelos lingüísticos (LLM, por su abreviatura en inglés), han supuesto un cambio radical en el potencial de estas tecnologías.

En concreto, estas tecnologías con capacidades generativas --denominadas "IA de propósito general" o "modelos fundacionales" (foundation models), --, entrenados con una gran cantidad de datos no etiquetados, que permiten su adaptación a una amplia gama de tareas posteriores, se están poniendo a disposición de los desarrolladores a través de interfaces de programación de aplicaciones (API, por su abreviatura en inglés) y están siendo utilizados por muchas empresas para ofrecer a los usuarios finales nuevos servicios, en particular de generación de texto, imágenes o sonido.

En una breve cronología de estos desarrollos, cabe destacar que en 2020, OpenAI, una empresa asociada comercialmente con Microsoft, lanzó GPT-3, un modelo de lenguaje entrenado con grandes conjuntos de datos de Internet, capaz de realizar una amplia gama de tareas de procesamiento del lenguaje natural (o lenguaje humano), como la traducción, la elaboración de resúmenes, la respuesta a preguntas, etc.

En 2021, OpenAI lanzó DALL-E, un modelo de aprendizaje profundo capaz de generar imágenes digitales a partir de descripciones en lenguaje natural.

En diciembre de 2022, la misma empresa lanzó el chatbot ChatGPT, basado en GPT-3, y en marzo de 2023, presentó GPT-4, que se espera tenga aún más aplicaciones en áreas como la escritura creativa, la generación de arte, la creación de textos y la codificación informática.

Estas herramientas ya están llegando al gran público. En marzo de 2023, Microsoft lanzó una versión de su motor de búsqueda Bing potenciado por IA y el navegador Edge, que incorpora una función de chat que aporta más contexto a los resultados de búsqueda. a los resultados de búsqueda.

Por su parte, Google y su filial DeepMind también están desarrollando herramientas de IA de propósito general; ejemplos de ello son el servicio de IA conversacional Bard. En marzo de 2023, Google presentó una serie de herramientas de IA generativa que permiten a empresas y gobiernos a empresas y gobiernos la capacidad de generar texto, imágenes, código, vídeos, audio y crear sus propias aplicaciones.

Los desarrolladores están utilizando estos "modelos básicos" para desplegar y ofrecer una avalancha de nuevos servicios de IA a los usuarios finales.

El resultado es que las herramientas de IA de uso general tienen potencial para transformar muchos ámbitos, por ejemplo, creando nuevas arquitecturas de motores de búsqueda o bots terapéuticos personalizados, o ayudando a los desarrolladores en sus tareas de programación.

Según un estudio de Gartner (“Beyond ChatGPT: The Future of Generative AI for Enterprises”), las inversiones en soluciones de IA generativa superan ya los 1.700 millones de dólares. El estudio predice que en los próximos años la IA generativa tendrá un fuerte impacto en los sectores sanitario, manufacturero, automovilístico, aeroespacial y de defensa, entre otros. Por ejemplo, la IA generativa puede utilizarse en la educación médica y, potencialmente, en la toma de decisiones clínicas o en el diseño de nuevos fármacos y materiales.

Los riesgos derivados de los grandes modelos de lenguaje

En paralelo, las características de estos modelos de IA de propósito general --su gran tamaño, opacidad y potencial para desarrollar capacidades inesperadas más allá de lo previsto por sus creadores- plantean una serie de interrogantes, relacionados con los riesgos éticos y sociales que generan.

Entre otras cuestiones ya identificadas, estos sistemas pueden discriminar injustamente y perpetuar estereotipos y prejuicios sociales, utilizar un lenguaje tóxico (por ejemplo, incitando al odio o a la violencia), presentar un riesgo para la información personal y sensible, proporcionar información falsa o engañosa, aumentar la eficacia de las campañas de desinformación y causar una serie de daños en la interacción persona-ordenador (como llevar a los usuarios a sobrestimar las capacidades de la IA y utilizarla de forma insegura).

Además, y a pesar de los intentos de los ingenieros por mitigar esos riesgos, los LLM, como GPT-4, siguen planteando retos a la seguridad y los derechos fundamentales de los usuarios (por ejemplo, produciendo textos convincentes que son sutilmente falsos o mostrando una mayor habilidad para proporcionar consejos ilícitos) y pueden generar contenidos nocivos y delictivos.

Por otra parte, dado que los modelos de IA de propósito general se entrenan capturando, analizando y procesando datos disponibles públicamente en Internet, los expertos en privacidad subrayan que surgen problemas de privacidad en torno al plagio, la transparencia, el consentimiento y los motivos legales para el procesamiento de datos. Lo que ya ha llevado a países como Italia a prohibir temporalmente su uso.

En otro orden de cosas, estos modelos representan un reto para los sistemas educativos y para los recursos de uso común, como los repositorios públicos. También se espera que estos modelos tengan un impacto significativo en el mercado laboral, incluso en términos de tareas laborales.

Además, la aparición de los LLM plantea muchos interrogantes, entre ellos la infracción de los derechos de propiedad intelectual y la distribución sin permiso de materiales protegidos por derechos de autor.

Algunos expertos advierten de que la creatividad generada por la IA podría perturbar considerablemente las industrias creativas (en ámbitos como el diseño gráfico o la composición musical, por ejemplo).

En este contexto, instituciones como el Foro de Davos y numerosos expertos están planteando que es muy necesario, tanto regular la difusión de estas herramientas de IA de uso general, como supervisar y controlar las LLM mediante mecanismos de evaluación y ensayo, subrayando el peligro de permitir que estas herramientas queden en manos de unas pocas empresas y gobiernos, y destacando la necesidad de evaluar las complejas dependencias entre las empresas que desarrollan y las que despliegan herramientas de IA de propósito general.

Incluso un amplio grupo de expertos en IA también han planteado una pausa de 6 meses, como mínimo, en el desarrollo de sistemas de IA más potentes que el GPT-4 .

Por todo ello, se están planteando, por un lado, el diseño de incentivos para fomentar la innovación y la comercialización de la creatividad generada por la IA y, por otro, medidas para proteger el valor de la creatividad humana. También se ha planteado la cuestión de qué régimen de responsabilidad debe aplicarse cuando los sistemas de IA de uso general causan daños.

Alternativas regulatorias

En estos momentos, los legisladores de la UE están inmersos en largas negociaciones para definir un marco regulador de la UE para la IA que sometería a los sistemas de IA de "alto riesgo" a una serie de requisitos y obligaciones en la UE. El alcance exacto de la propuesta de ley sobre inteligencia artificial es objeto de controversia. Aunque la propuesta original de la Comisión Europea no contenía disposiciones específicas sobre las tecnologías de IA de uso general, el Consejo ha propuesto que se tengan en cuenta, y los negociadores del Parlamento Europeo también han manifestado su intención de incorporar esta tecnología al ámbito de esta futura regulación .

Sin embargo, expertos como Jared Brown, director de política estadounidense e internacional del Future of Life Institute (FLI) y más de cien académicos de la Universidad de Stanford (en el documento “On the opportunities and risks of foundation models”), han advertido de que cualquier enfoque que clasifique los sistemas de IA como de alto riesgo o no en función de su finalidad, crearía una laguna para los sistemas de propósito general, ya que la futura ley de IA regularía los usos específicos de una aplicación de IA, pero no sus modelos básicos subyacentes.

En este contexto, varias partes interesadas, como el Future of Life Institute, han pedido que la IA de propósito general se incluya en el ámbito de aplicación de la ley de IA, y algunos académicos favorables a este planteamiento han sugerido modificar la propuesta en consecuencia.

Así, en “ChatGPT and the AI Act”, Helberger y Diakopoulos proponen considerar la creación de una categoría de riesgo separada para los sistemas de IA de propósito general. Estos estarían sujetos a obligaciones y requisitos legales que se ajusten a sus características, y a un sistema de vigilancia del riesgo sistémico similar al de la Ley de Servicios Digitales (DSA) .

Hacker, Engel y Mauer, por su parte, sostienen en “Regulating ChatGPT and other Large Generative AI Models” que el futuro Reglamento de IA debería centrarse en las aplicaciones específicas de alto riesgo de la IA de propósito general e incluir obligaciones relativas a la transparencia, la gestión de riesgos y la no discriminación; las normas de moderación de contenidos de la DSA (por ejemplo, mecanismos de notificación y acción, y marcadores de confianza) deberían ampliarse para cubrir dicha IA de propósito general.

A su vez, en “The value chain of general-purpose AI”, Küspert, Moës y Dunlop piden que la regulación de la IA de propósito general esté preparada para el futuro, entre otras cosas, abordando la complejidad de la cadena de valor, teniendo en cuenta las estrategias de código abierto y adaptando el cumplimiento y la aplicación de las políticas a los diferentes modelos de negocio.

Finalmente, según exponen en “Reconciling the AI Value Chain with the EU’s Artificial Intelligence Act”, para Engler y Renda, la ley debería desincentivar el acceso a la API para el uso de IA de propósito general en sistemas de IA de alto riesgo, introducir compromisos blandos para los proveedores de sistemas de IA de propósito general (como un código de conducta voluntario) y aclarar las responsabilidades de los actores a lo largo de las cadenas de valor.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll