Cargando. Por favor, espere

Estados Unidos también estudia la regulación de los sistemas de IA como ChatGPT

Diario LA LEY, Nº 72, Sección Ciberderecho, 12 de Abril de 2023, LA LEY

LA LEY 3139/2023

Tras la denuncia presentada ante la Federal Trade Commission por un centro de estudios y análisis sobre la ética de la IA, solicitando que investigue a OpenAI, por violar las normas de protección de los consumidores, la Administración Nacional de Telecomunicaciones e Información norteamericana (NTIA) ha lanzado una consulta pública para avanzar en la elaboración de una normativa que garantice que los sistemas de IA funcionen según lo previsto y sin causar daños.

Portada

La enorme conmoción que están generando los sistemas de IA generativa como ChatGPT, está impulsando un variado conjunto de iniciativas orientadas a impedir o limitar la capacidad intrusiva de estas tecnologías en los derechos de las personas.

Así, tras la propuesta ”Pause Giant AI Experiments para detener durante al menos 6 meses el entrenamiento de sistemas de IA más potentes, como GPT-4, puesta en marcha por el Future of Life Institute y que hasta la fecha ha recogido más de 22.000 adhesiones, o el llamamiento urgente formulado por la UNESCO a todos los países, para que implementen plenamente y de inmediato su Recomendación sobre ética de la inteligencia artificial, el Parlamento Europeo está considerando la inclusión de estos sistemas entre los considerados de alto riesgo, en el futuro Reglamento Europeo de IA, actualmente en elaboración.

Denuncia ante la FTC

La última novedad a este respecto han sido dos propuestas procedentes de los Estados Unidos.

Así, a finales del pasado mes de marzo, el Center for AI and Digital Policy (CAIDP), un centro de estudios y análisis sobre la ética de la IA, presentó una denuncia ante la Federal Trade Commission, un organismo federal independiente para la defensa de los consumidores, solicitando que investigue a OpenAI (la empresa que ha desarrollado GPT, ChatGPT y DALL-E), por violar las normas de protección de los consumidores, argumentando que el despliegue de herramientas de generación de texto de IA por parte de la organización ha sido "tendencioso, engañoso y un riesgo para la seguridad pública".

La denuncia del CAIDP señala las posibles amenazas del modelo de texto generativo GPT-4 de OpenAI, anunciado a mediados de marzo. Entre ellas se encuentran la posibilidad de que GPT-4 genere código malicioso y propaganda altamente personalizada, así como la posibilidad de que los datos de entrenamiento sesgados que se puedan haber utilizado den lugar a estereotipos o preferencias raciales y de género injustas en el ámbito de la contratación laboral. También se han señalado fallos significativos en la privacidad de la interfaz del producto de OpenAI, como ha puesto de manifiesto una reciente brecha que expuso los historiales de OpenAI ChatGPT y posiblemente los detalles de pago a otros usuarios.

OpenAI ha señalado abiertamente las amenazas potenciales de la generación de texto por IA, pero CAIDP argumenta que GPT-4 cruza una línea de perjuicio al consumidor que debería suscitar una acción reguladora. Por ello, se pretende responsabilizar a OpenAI de violar la Sección 5 de la Ley de la Comisión Federal de Comercio (FTC Act de 2014), que prohíbe las prácticas comerciales desleales y engañosas. Según la denuncia, "OpenAI puso GPT-4 a disposición del público para su uso comercial con pleno conocimiento de estos riesgos", incluidos el sesgo potencial y el comportamiento perjudicial. También define las alucinaciones de la IA, o el fenómeno de los modelos generativos que inventan hechos inexistentes, como una forma de engaño. "ChatGPT promoverá declaraciones comerciales y publicidad engañosas", ha advertido CAIDP, lo que podría situarlo bajo la competencia de la FTC.

Por ello, la entidad denunciante pide a la FTC que detenga cualquier despliegue comercial de modelos GPT y exija su evaluación independiente antes de cualquier despliegue futuro. También solicita una herramienta de información de acceso público similar a la que permite a los consumidores presentar reclamaciones por fraude. Igualmente busca una reglamentación firme sobre las normas de la FTC para los sistemas de IA generativa, basándose en la investigación y evaluación en curso, aunque todavía relativamente informal, de las herramientas de IA por parte de la agencia.

Como señala el CAIDP, la FTC ha manifestado su interés por regular las herramientas de IA. De hecho, en un acto conjunto con el Departamento de Justicia celebrado esta semana, la presidenta de la FTC, Lina Khan, declaró que su agencia buscaría indicios de que las grandes empresas tecnológicas tratan de bloquear la competencia. Pero una investigación de OpenAI supondría una escalada importante en sus esfuerzos.

Avanzar en la regulación de la IA en los Estados Unidos

Pocos días después, la Administración Nacional de Telecomunicaciones e Información (NTIA) del Departamento de Comercio estadounidense ha lanzado una consulta pública (Request for comments, RFC) para avanzar en la elaboración de una normativa para garantizar que los sistemas de IA funcionen según lo previsto y sin causar daños. En concreto, la información recabada durante los próximos sesenta días a través de esta RFC servirá de base a los trabajos en curso de la Administración Biden para garantizar un enfoque cohesivo y global del gobierno federal ante los riesgos y oportunidades relacionados con la IA.

Estos trabajos se han concretado, por ahora, en el Plan para elaborar una Declaración de Derechos ante la IA (Blueprint for an AI Bill of Rights), presentado por la Oficina de Política Científica y Tecnológica de la Casa Blanca y, junto a esta iniciativa, el Marco de Gestión de Riesgos de la IA (AI risk management framework) elaborado por el Instituto Nacional de Normalización y Tecnología (NIST), una herramienta voluntaria que las organizaciones pueden utilizar para gestionar los riesgos que plantean los sistemas de IA.

Según la NTIA, junto a los beneficios que puede aportar la IA, se están detectando un número creciente de incidentes en los que la IA y los sistemas algorítmicos han dado lugar a resultados perjudiciales. También existe una creciente preocupación por los riesgos potenciales para las personas y la sociedad que aún no se han manifestado, pero que podrían derivarse de sistemas cada vez más potentes.

Por ello las empresas tienen la responsabilidad de asegurarse de que sus productos de IA son seguros antes de ponerlos a disposición del público. En paralelo, las empresas y los consumidores que utilizan tecnologías de IA y las personas cuyas vidas y medios de subsistencia se ven afectados por estos sistemas tienen derecho a saber que se han investigado adecuadamente y que los riesgos se han mitigado de manera apropiada.

En particular, se destaca que al igual que las auditorías financieras crean confianza en la exactitud de los estados financieros de una empresa, en el caso de la IA, estos mecanismos pueden ayudar a garantizar que un sistema de IA es digno de confianza en el sentido de que hace lo que está destinado a hacer sin consecuencias adversas. Igualmente, del mismo modo que los alimentos y los coches no salen al mercado sin las debidas garantías de seguridad, los sistemas de IA también deben garantizar al público, al gobierno y a las empresas que son adecuados para su propósito.

Por todo ello, la NTIA busca opiniones sobre las políticas que deberían dar forma al ecosistema de responsabilidad de la IA, incluyendo temas como:

- Qué tipo de pruebas de confianza y seguridad deben realizar las empresas de desarrollo de IA y sus clientes empresariales.

- Qué tipo de acceso a los datos es necesario para llevar a cabo auditorías y evaluaciones.

- Cómo pueden los reguladores y otros actores incentivar y apoyar una garantía creíble de los sistemas de IA junto con otras formas de rendición de cuentas.

- Qué enfoques diferentes pueden ser necesarios en distintos sectores industriales, como el empleo o la sanidad.

El presidente Biden ha sido claro al afirmar que, en lo que respecta a la IA, se debe apoyar una innovación responsable, garantizando a la vez la protección de los derechos y la seguridad de los estadounidenses. Según añadió al inicio de una reunión del Consejo Presidencial de Asesores sobre Ciencia y Tecnología (PCAST) "Las empresas tecnológicas tienen la responsabilidad, de asegurarse de que sus productos son seguros antes de hacerlos públicos".

Por ello, Biden reiteró su llamamiento al Congreso para que apruebe una legislación federal consensuada sobre privacidad, que ponga límites a los datos personales que recopilan las empresas tecnológicas, prohíba la publicidad dirigida a los niños y dé prioridad a la salud y la seguridad en el desarrollo de productos.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll