Cargando. Por favor, espere

Reglamento de IA: los Comités de trabajo del Parlamento Europeo remiten al pleno la versión final de la norma

Reglamento de IA: los Comités de trabajo del Parlamento Europeo remiten al pleno la versión final de la norma

  • 11-5-2023 | Parlamento Europeo
  • Se amplían las prácticas de IA prohibidas y las consideradas de alto riesgo. Se establecen requisitos más estrictos para los sistemas de IA generativa como ChatGPT y se incorporan medidas para que los ciudadanos puedan presentar quejas sobre los sistemas de IA y puedan recibir explicaciones sobre las decisiones automatizadas que afecten significativamente a sus derechos
Portada

Carlos B Fernández. Tal como estaba previsto, las Comisiones de Mercado Interior y Protección del Consumidor (IMCO) y de Libertades Civiles, Justicia y Asuntos de Interior (LIBE) del Parlamento Europeo han aprobado la versión del Reglamento de Inteligencia Artificial (IA) que, previa aprobación por el Pleno de la Cámara durante el periodo de sesiones del 12 al 15 de junio, defenderá la eurocámara en su negociación con el Consejo.

Con el foco puesto en garantizar un desarrollo ético y centrado en el ser humano de la Inteligencia Artificial (IA) en Europa, se amplía la prohibición de uso de los sistemas de vigilancia biométrica, el reconocimiento de emociones y los sistemas de IA policial predictiva. Además, se establece un régimen específico para los sistemas de IA de propósito general y para los modelos fundacionales como el GPT.

Los eurodiputados pretenden garantizar también que los sistemas de IA estén supervisados por personas, sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.

El resultado es una norma más extensa y compleja que la inicialmente planteada por la Comisión.

Según Dragos Tudorache, presidente del Comité Especial sobre la Inteligencia Artificial (AIDA) del Parlamento Europeo, y ponente del Comité LIBE para la propuesta de Reglamento de IA de la Cámara, los aspectos clave de este acuerdo son:

- Una definición jurídica de la IA alineada con la de la OCDE, es decir, alineada internacionalmente. Una paso importante ya que ofrece al mundo (democrático) una interpretación común de lo que es la IA y sirve de base para futuras convergencias, tanto técnicas como normativas.

- Un conjunto específico de normas que se ocupen de los potentes modelos fundamentales. Dada su potencia, tamaño y múltiples usos, estos modelos deben conceptualizarse, construirse, entrenarse y desplegarse de forma que su uso sea seguro.

- Un mayor control y escrutinio de los sistemas de IA generativa que crean textos, imágenes, sonidos o vídeos realistas, sin obstaculizar sudesarrollo.

- Medidas contundentes para la innovación, las empresas de nueva creación y las PYME de toda Europa, con especial referencia a los entornos de prueba controlados o sandbox. Las empresas de la UE que desarrollen IA podrán acceder a un "sandbox" en cada Estado miembro, no sólo para comprobar el cumplimiento de la normativa, sino también para probar sus productos y para el aprendizaje normativo.

- Refuerzo de la protección de los derechos fundamentales y de la supervisión democrática en toda la UE, añadiendo requisitos estrictos de transparencia para las autoridades públicas que utilicen sistemas de IA de alto riesgo, ofreciendo mecanismos de reparación para las personas afectadas por el uso de un sistema de IA de alto riesgo, pidiendo a quienes desplieguen sistemas de IA de alto riesgo que realicen una evaluación de impacto sobre los derechos fundamentales y reforzando la aplicación general de la Ley de IA.

- Reducción de la incertidumbre para la industria y el entorno empresarial, permitiendo a las empresas realizar una autoevaluación preliminar cuando sus sistemas entren dentro de las categorías generales de sistemas de IA de alto riesgo, y manteniendo un procedimiento de autoevaluación para el cumplimiento de este reglamento.

- Una estructura de gobernanza y aplicación fuerte, coherente e integrada, que garantice que las normas se aplican de manera uniforme en toda la UE, que los Estados miembros se coordinan y aprenden unos de otros, que se apoya la innovación tanto a nivel local como de la UE, y que nuestra experiencia compartida en la gobernanza de la IA y el apoyo a la innovación en IA beneficia a todos los Estados miembros.

- Reforzar la protección de nuestras democracias y nuestros valores prohibiendo en toda la UE prácticas como la vigilancia masiva, la puntuación social y la vigilancia policial predictiva, y exigiendo que los sistemas de IA que se utilicen para influir en elecciones y referendos cumplan con la plena protección de los derechos fundamentales. En opinión de Tudorache, el texto del Parlamento representa una mejora significativa con respecto a la propuesta de la Comisión, lo que demuestra lo rápido que avanza la IA y lo importante que es disponer de normas que guíen su desarrollo en la dirección correcta.

Según una nota difundida por el Parlamento, las principales novedades recogidas en la versión del Reglamento que se someterán a la votación del Pleno son las siguientes:

Prácticas de IA prohibidas

El Reglamento sigue un planteamiento basado en el riesgo que puedan plantear los sistemas de IA para los bienes y derechos de las personas. De esta manera, los sistemas de IA que supongan un nivel inaceptable de riesgo para la seguridad de las personas estarían estrictamente prohibidos, incluidos los sistemas que desplieguen técnicas subliminales o de manipulación intencionada, exploten las vulnerabilidades de las personas o se utilicen para el scoring social (clasificación de personas en función de su comportamiento social, estatus socioeconómico o características personales).

En concreto, los eurodiputados han modificado sustancialmente la propuesta elaborada en su día por la Comisión para incluir prohibiciones de usos intrusivos y discriminatorios de sistemas de IA como:

- Sistemas de identificación biométrica remota "en tiempo real" en espacios de acceso público;

- Sistemas de identificación biométrica remota "a posteriori", con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo previa autorización judicial;

- Sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, sexo, raza, etnia, estatus de ciudadanía, religión, orientación política);

- Sistemas policiales predictivos (basados en perfiles, localización o comportamientos delictivos anteriores);

- Sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas; y

- Extracción indiscriminada de datos biométricos de redes sociales o grabaciones de televisión en circuito cerrado (CCTV) para crear bases de datos de reconocimiento facial (violación de los derechos humanos y del derecho a la intimidad).

Sistemas de IA de alto riesgo

Los eurodiputados también han ampliado la clasificación de áreas de alto riesgo para incluir aquellos que puedan causar daños a la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas.

Igualmente han añadido a la lista de alto riesgo los sistemas de IA destinados a influir en los votantes en las campañas políticas y en los sistemas de recomendación utilizados por las plataformas de medios sociales (con más de 45 millones de usuarios según la Ley de Servicios Digitales).

IA de uso general: medidas de transparencia

Los eurodiputados incluyeron obligaciones para los proveedores de los denominados modelos fundacionales (foundation models) -un tipo de desarrollos con alta capacidad de aprendizaje y capacidad de uso general, base de sistemas como ChatGPT -, que tendrán que garantizar una sólida protección de los derechos fundamentales, la salud y la seguridad y el medio ambiente, la democracia y el Estado de Derecho.

Como paso previo a su lanzamiento tendrán que evaluar y mitigar los riesgos que puedan provocar, cumplir los requisitos de diseño, información y medio ambiente y registrarse en la base de datos de la UE.

Además, los modelos de base generativa, como GPT, tendrían que cumplir requisitos adicionales de transparencia, como revelar que los contenidos han sido generados por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

Protección de los derechos de los ciudadanos

Los eurodiputados quieren impulsar el derecho de los ciudadanos a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten significativamente a sus derechos. Los eurodiputados también reforman el papel de la Oficina de IA de la UE, que se encargaría de supervisar cómo se aplica el reglamento sobre IA.

Por otra parte, y a fin de impulsar la innovación en IA, los eurodiputados han añadido exenciones a estas normas para las actividades de investigación y los componentes de IA proporcionados bajo licencias de código abierto. La nueva ley promueve la creación de entornos controlados por parte de las autoridades públicas para probar la IA antes de su despliegue.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll