Cargando. Por favor, espere

El Parlamento Europeo se inclina por la definición de Inteligencia Artificial de la OCDE

  • 9-3-2023 | LA LEY
  • La definición pactada por los parlamentarios coincide en gran medida con la de la OCDE y se corresponde con un añadido incorporado al preámbulo del texto, que pide que la definición de IA esté "estrechamente alineada con el trabajo de las organizaciones internacionales que trabajan en inteligencia artificial para garantizar la seguridad jurídica, la armonización y una amplia aceptación". También se han tenido en cuenta los nuevos sistemas de IA generativa, como ChatGPT
Portada

Carlos B Fernández. El proceso de tramitación de la propuesta de Reglamento sobre Inteligencia Artificial (IA) en el Parlamento Europeo parece haber superado un importante obstáculo. Según informa Luca Bertuzzi en Euractiv, el pasado viernes 3 de marzo, los representantes de los grupos políticos que trabajan en la propuesta, alcanzaron un acuerdo sobre una de las partes políticamente más delicadas del texto: la propia definición de Inteligencia Artificial.

En concreto, los negociadores han decidido adoptar a este respecto la definición utilizada por la Organización para la Cooperación y el Desarrollo Económico (OCDE).

También se han acordado la mayoría de las demás definiciones, con nuevas medidas como el derecho a la explicación.

La importancia de la definición de IA

En el marco de la propuesta de Reglamento de la IA, que pretende regular esta tecnología en función de su capacidad para causar daños, la definición de Inteligencia Artificial tendrá grandes consecuencias, ya que delimitará el propio alcance de la normativa.

En este sentido, la definición propuesta por la OCDE en 2019 se refiere a aquellos “sistemas basados en máquinas, capaces de influir en su entorno por medio de la producción de un resultado (como predicciones, recomendaciones o decisiones) para un conjunto determinado de objetivos. Para ello, utiliza datos y entradas basados en máquinas y/o humanos para (i) percibir entornos reales y/o virtuales; (ii) abstraer estas percepciones en modelos mediante análisis de forma automatizada (por ejemplo, con aprendizaje automático), o manual; y (iii) utilizar la inferencia de modelos para formular opciones de resultados. Los sistemas de IA están diseñados para funcionar con distintos niveles de autonomía”.

Según Euractiv, la definición acordado por los parlamentarios europeos se refiere a aquellos sistemas basados en máquinas diseñados para operar con distintos niveles de autonomía y que pueden, ante unos objetivos explícitos o implícitos, generar resultados tales como predicciones, recomendaciones o decisiones que influyan en entornos físicos o virtuales.

Como puede apreciarse, salvo la referencia a la noción de sistema "basado en máquinas", esta definición coincide en gran medida con la de la OCDE y se corresponde con un añadido incorporado al preámbulo del texto, que pide que la definición de IA esté "estrechamente alineada con el trabajo de las organizaciones internacionales que trabajan en inteligencia artificial para garantizar la seguridad jurídica, la armonización y una amplia aceptación".

Esta referencia al marco internacional parece ir en la línea impulsada por el Partido Popular Europeo, que también quería limitar la definición a los sistemas basados en el aprendizaje automático, mientras que los legisladores de centro-izquierda pedían un enfoque más amplio, que incluyera a los sistemas de toma de decisiones automatizadas.

Por otra parte, el texto acordado también especifica que la IA debe distinguirse de los sistemas de software o de programación más sencillos, cuya finalidad u objetivos podrían ser diferentes de la finalidad prevista del sistema de IA en un contexto específico.

El compromiso apunta también a que cuando un modelo de IA se integra en un sistema más amplio que depende por completo del componente de IA, todo el sistema se considerará parte de una única solución de IA.

Inclusión de los sistemas como ChatGPT en el ámbito de aplicación del Reglamento

Además, se menciona que se ha incluido una redacción que establece que la referencia a las predicciones incluye a los sistemas generadores de contenido, una medida, al parecer, destinada a garantizar que los modelos generativos de IA como ChatGPT no queden fuera de la regulación.

Sin embargo, se indica citando nuevamente fuentes parlamentarias, no se ha concluido todavís si estos sistemas de IA generativa entran dentro de la categoría de sistemas de alto riesgo, con las obligaciones que ello implica para sus desarrolladores y usuarios, o de los denominados sistemas de IA de Propósito General, sujetos a muchas menos exigencias.

Otras definiciones

Siempre según el citado medio, el pasado día 6 se alcanzó también un acuerdo técnico sobre la mayoría de las demás definiciones del reglamento sobre IA. En este caso, la adición más significativa a las enmiendas de compromiso se refiere a las definiciones de riesgo significativo, autenticación biométrica e identificación.

En este sentido, parece que se ha acordado que “Riesgo significativo” significa un riesgo que es significativo en términos de su gravedad, intensidad, probabilidad de ocurrencia, duración de sus efectos y capacidad para afectar a un individuo, a una pluralidad de personas o a un grupo particular de personas".

Los sistemas de verificación biométrica a distancia se definieron como sistemas de IA utilizados para verificar la identidad de las personas comparando sus datos biométricos con una base de datos de referencia con su consentimiento previo. Esto se distingue de un sistema de autenticación, en el que las propias personas piden ser autenticadas.

En cuanto a la categorización biométrica, una práctica añadida recientemente a la lista de casos de uso prohibidos, se añadió una referencia a la inferencia de características y atributos personales como el sexo o la salud.

También se introdujo una referencia a la Directiva de Aplicación de la Ley para la elaboración de perfiles por parte de las autoridades policiales.

Los legisladores de la UE Brando Benifei y Dragoș Tudorache van a seguir trabajando para cerrar las negociaciones sobre la propuesta en los próximos días.

Artículos independientes

En los próximos días está prevista otra reunión técnica para debatir los llamados artículos autónomos, disposiciones que no están necesariamente vinculadas al resto del proyecto de ley.

En este sentido destaca la introducción de un nuevo artículo relativo al derecho a una explicación en la toma de decisiones individuales, que se aplicará en los casos en que la IA informa de una decisión que produce efectos jurídicos o efectos similares en una persona.

Una explicación significativa debe incluir información sobre el papel desempeñado por la IA en la toma de la decisión, la lógica aplicada y los principales parámetros utilizados, así como los datos de entrada. Para hacer efectiva esta disposición, se impide que las autoridades policiales y judiciales utilicen sistemas de IA amparados por derechos de propiedad.

Otras medidas nuevas son los requisitos de accesibilidad para proveedores y usuarios de IA, el derecho a no estar sujeto a modelos de IA no conformes y la obligación de que los sistemas de IA de alto riesgo se diseñen y desarrollen de forma que se minimice el impacto medioambiental.

Los artículos sobre los principios generales aplicables a todos los sistemas de IA y la alfabetización en IA se mantuvieron en gran medida, ya que se propusieron inicialmente en una reunión política a mediados de febrero, pero no hubo tiempo para debatirlos.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll