Cargando. Por favor, espere

Los miembros del Parlamento cierran un acuerdo sobre la redacción del Reglamento de Inteligencia Artificial

  • 28-4-2023 | Parlamento Europeo
  • El texto acordado confirma la tendencia a imponer obligaciones más estrictas a programas como ChatGPT. Además, añade unos denominados principios generales de la IA, revisa el concepto de sistemas prohibidos y de sistemas de alto riesgo y prevé disposiciones sobre sostenibilidad los sistemas inteligentes.
Portada

Carlos B Fernández. La tramitación del futuro Reglamento Europeo de Inteligencia Artificial continúa buen ritmo. Como informa Luca Bertuzzi en Euractiv, esta semana los eurodiputados han alcanzado un acuerdo político sobre el texto que negociarán con el Consejo.

Han sido varios meses de intensa negociación política para salvar los diferentes puntos de vista existen sobre diversos temas relevante. Y aunque el texto aún podría ser objeto de pequeños ajustes de carácter técnico antes de su aprobación conjunta por las Comisiones de Mercado Interior y Protección del Consumidor (IMCO) y de de Libertades Civiles, Justicia y Asuntos de Interior (LIBE) del Parlamento, prevista para el próximo 11 de mayo, se espera que se someta a votación plenaria a mediados de junio. De esta forma se podrían empezar los trílogos entre Comisión, Consejo y Parlamento durante el segundo semestre del año, cuya presidencia de turno del Consejo corresponde a España.

Según Kai Zenner, jefe de gabinete del rapporteur de la Comisión de Asuntos Jurídicos (JURI), después de las numerosas reuniones celebradas entre representantes de todos los grupos políticos presentes en la Cámara, a lo largo de los últimos diez días, se han realizado numerosos avances, en especial en materias como los sistemas de IA de propósito general (GPAI) y la cadena de valor de la IA. Pero no ha habido tiempo suficiente para resolver todos los puntos pendientes. Esta fuente señala que el artículo 5, relativo a las prácticas de IA prohibidas, está siendo muy controvertido ya que no resulta fácil a los grupos encontrar un término medio. Por otra parte, y a un nivel técnico, se estima que los considerandos aun requerirán más tiempo para su conclusión, al igual que las disposiciones adicionales.

Este portavoz ha destacado igualmente que, en comparación con la propuesta de la Comisión y el acuerdo sobre el mismo alcanzado por el Consejo, la versión del Parlamento Europeo podría lograr un mucho mejor equilibrio entre la promoción de la AI y la protección frente a la misma. Se han corregido numerosos desajustes, se ha mejorado la definición de IA y se han añadido medidas realistas de mitigación de riesgos.

En síntesis, las modificaciones introducidas han sido las siguientes:

Principios generales

Antes de la reunión del miércoles 26, la oficina de los coponentes distribuyó una propuesta de principios generales que se aplicarían a todos los modelos de IA. No pretenden crear nuevas obligaciones, sino que deberán incorporarse a las normas técnicas y los documentos de orientación.

Estos principios incluyen la agencia humana y la supervisión, la solidez técnica y la seguridad, la privacidad y la gobernanza de datos, la transparencia, el bienestar social y medioambiental, la diversidad, la no discriminación y la equidad.

IA de propósito general

Según Bertuzzi, los sistemas de IA que no tienen un propósito específico ha sido un tema muy debatido. Los eurodiputados confirmaron las propuestas anteriores de imponer obligaciones más estrictas a los modelos fundacionales, una subcategoría de la IA de propósito general que incluye a programas como ChatGPT.

Además, se ha añadido un cambio significativo de última hora en relación con los modelos generativos de IA, que tendrían que diseñarse y desarrollarse de acuerdo con la legislación de la UE y los derechos fundamentales, incluida la libertad de expresión.

Prácticas prohibidas

Un tema que ha seguido generando controversia entre los parlamentarios ha sido el de qué tipo de aplicaciones de IA deben prohibirse por considerarse que plantean un riesgo inaceptable.

Hace dos semanas se planteó la idea de prohibir las herramientas basadas en IA para toda vigilancia general de las comunicaciones interpersonales. La propuesta se retiró tras la oposición del conservador Partido Popular Europeo (PPE). A cambio, los legisladores de centro-derecha tuvieron que aceptar una ampliación de la prohibición del software de identificación biométrica. Inicialmente sólo se prohibía su uso en tiempo real, pero ahora se prevé que este software de reconocimiento sólo podrá utilizarse a posteriori en caso de delitos graves y con autorización judicial previa.

Por otra parte, el reglamento también prohíbe los sistemas que tengan como objetivo de manipular "de manera sustancial" (purposeful). La expresión "de manera sustancial" fue objeto de debate, ya que la intencionalidad podría ser difícil de probar, pero se mantuvo porque los eurodiputados no querían extender demasiado el concepto.

Además, el uso de software de reconocimiento de emociones basado en IA queda prohibido en los ámbitos policial, de gestión de fronteras, laboral y educativo.

Finalmente, se ha ampliado la prohibición de la policía predictiva, que pasa de referirse a los delitos penales a incluir también los ilícitos administrativos, basándose en el escándalo holandés de las prestaciones por hijos a cargo, en el que miles de familias fueron incriminadas erróneamente de fraude como consecuencia de la utilización de un algoritmo mal controlado.

Sistemas considerados de alto riesgo

La propuesta inicial clasificaba automáticamente como de alto riesgo las soluciones de IA incluidas en los ámbitos críticos y casos de uso enumerados en el anexo III de la propuesta, lo que significa que los proveedores tendrían que cumplir unos requisitos estrictos que incluyen gestión de riesgos, transparencia y gobernanza de datos.

Los eurodiputados introdujeron un nivel adicional, lo que significa que un modelo de IA que entre en las categorías del anexo III sólo se considerará de alto riesgo si, además, plantea un riesgo significativo de daño para la salud, la seguridad o los derechos fundamentales.

El riesgo significativo se define como "un riesgo que es significativo como resultado de la combinación de su gravedad, intensidad, probabilidad de ocurrencia y duración de sus efectos, así como por su capacidad de afectar a un individuo, a una pluralidad de personas o de afectar a un grupo particular".

Por otra parte, a petición de los Verdes, la IA utilizada para gestionar infraestructuras críticas, como las redes de energía o los sistemas de gestión del agua, también se clasificarán como de alto riesgo si entrañan un grave riesgo medioambiental.

Además, los legisladores de centro-izquierda consiguieron que se consideraran de alto riesgo los sistemas de recomendación de plataformas online muy grandes, tal y como se definen en la Ley de Servicios Digitales (DSA).

Detección de sesgos

Los eurodiputados han incluido salvaguardas adicionales para el proceso por el que los proveedores de modelos de IA de alto riesgo pueden procesar datos sensibles como la orientación sexual o las creencias religiosas para detectar sesgos negativos.

En concreto, para que se produzca el tratamiento de este tipo especial de datos, el sesgo no debe ser detectable mediante el tratamiento de datos sintéticos, anonimizados, seudonimizados o encriptados.

Además, la evaluación debe producirse en un entorno controlado. Los datos sensibles no pueden transmitirse a terceros y deben eliminarse tras la evaluación de sesgos. Los proveedores también deben documentar por qué se ha llevado a cabo el tratamiento de los datos.

Sostenibilidad de la IA de alto riesgo

Los sistemas de IA de alto riesgo tendrán que llevar registros de su huella medioambiental, y los modelos de cimentación tendrán que cumplir las normas medioambientales europeas.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll