Cargando. Por favor, espere

El Observatorio de Derecho Digital IE – ECIJA presenta su primer informe sobre Inteligencia Artificial

  • 14-3-2023 | LA LEY
  • El estudio, elaborado a partir de las opiniones de un grupo de expertos y profesionales, fue presentado en un acto celebrado en la sede de la IE University, el que participaron Elena Otero-Novas, Ana Buitrago y Antonio Muñoz Marcos, quienes debatieron sobre diversos aspectos de la problemática que plantea esta tecnología.
Portada

El pasado 9 de marzo, el Observatorio de Derecho Digital IE-ECIJA presentó su primer Informe sobre Inteligencia Artificial (IA), elaborado a partir de un Focus Group que se reunió en Madrid el 14 de diciembre de 2022.

De este Focus Group, en el que participaron líderes de los departamentos jurídicos o regulatorios de empresas como Telefónica, Santander, Vodafone, Amazon, Carrefour, Lactalis o Hotelbeds, se destacan las siguientes conclusiones:

- Resulta necesario dotar a la IA de un marco jurídico específico.

- Dicha regulación debería no solo potenciar el mercado y el uso de la IA proporcionando seguridad jurídica, sino también creando las condiciones, límites y obligaciones correctas para su uso. Todo ello con la finalidad de evitar o minimizar sus riesgos.

- La nueva regulación deberá aclarar los criterios de tecnología y soberanía de datos que se aplicarán.

- La profesión legal se verá radicalmente impactada por el desarrollo y uso masivo de la IA, al igual, lógicamente, que la mayoría de los sectores económicos y la sociedad en su conjunto. Mediante el uso de IA, los profesionales del Derecho podrán centrarse en la realización de tareas de mayor valor añadido, más creativas, intelectuales y estratégicas, abandonando las tareas repetitivas, monótonas y de poco valor añadido,

- En términos de iniciativas de regulación legal, la UE está en primera línea a nivel mundial y,  

- El RGPD es el comienzo; sus aprendizajes y mejoras prácticas deberían servir de base para la regulación de la IA. En este sentido, en cuanto a las pautas esperadas, se considera que el Reino Unido es el referente a seguir, pero ¿sería este enfoque demasiado blando para regular esta tecnología y mercado en crecimiento?

La presentación del informe tuvo lugar en un evento celebrado en la sede de la IE University, el que participaron Elena Otero-Novas, Directora de Legal, Regulación y Seguridad Corporativa de Vodafone España; Ana Buitrago, Directora Legal de Amazon (España, Italia, Portugal, Reino Unido y Alemania) y Antonio Muñoz, Director Técnico de la Oficina del DPD de Telefónica Global, moderados por Rafif Srour, Vicedecana de programas de Grado del IE.

En la apertura del acto, Alejandro Touriño, Managing Partner de ECIJA, recordó la finalidad del Observatorio, de dar voz a los actores relevantes del ecosistema digital, en particular en los ámbitos de la IA, la privacidad y los datos, la Legal Tech y el metaverso.

En este sentido, el informe ha tratado de ser práctico y ejecutivo, “de pocas páginas y muchas ideas”, subrayando la importancia de regular los riesgos jurídicos que plantea esta tecnología y teniendo en cuenta que, por ahora, no existe una norma para todos los supuestos de hecho, sino muchas normas diferentes en ámbitos como la propiedad intelectual, competencia o consumidores.

En todo caso, concluyó Touriño, dado el impacto económico y social que plantean estas tecnologías “o nos adaptamos y capacitamos, o la tecnología sustituirá a los abogados sin competencias tecnológicas”.

¿Qué es la IA y qué riesgos legales plantea?

Para empezar situando el debate, Srour pidió a los ponentes una definición de IA. Algo, en palabras de Ana Buitrago, muy importante para establecer el ámbito de aplicación de la posible normativa. En este sentido, Buitrago se remitió a la definición que adopta el informe, que considera a la IA como la capacidad de un software y en ocasiones un hardware, para ejecutar tareas que implican aptitudes cognitivas o procesamiento del lenguaje natural.

Jurídicamente, añadió Elena Otero-Novas, se trata de una actividad humana, lo que implica que tiene que tener los límites propios de cualquier actividad de ese tipo.

En opinión de Antonio Muñoz, que mencionó también la propuesta de definición planteada por el Grupo de Expertos de la Comisión Europea ya en 2019 y que incluye una referencia a la autonomía de estos sistemas, la definición de lo que sea IA está sesgada, y eso tiene implicaciones en el ámbito de la responsabilidad. Por ello subrayó que, en su opinión, cuanto más humano sea un sistema, más inteligente debe ser. Lo relevante, indicó, es la reflexión normativa a partir de la tecnología responsable.

Pero más allá, de la definición, Srour pidió a los ponentes que mencionaran los retos legales que plantea la IA, sobre lo que Otero-Novas indicó que ya existe normativa aplicable a determinadas tecnologías, como ocurre en el ámbito de la protección de datos.

Sin embargo, añadió, en el ámbito de la IA se plantean problemas específicos, como la necesidad de explicabilidad de los motivos de la decisión adoptada, que se traduce en la conveniencia de que determinados sistemas o actividades tengan una regulación preventiva.

Más en concreto, Ana Buitrago se refirió a tres riesgos concretos a considerar: el reemplazo o manipulación de la voluntad humana por las máquinas, a causa del suministro a las personas de información incompleta, errónea o sesgada; los datos sesgados, que pueden implicar un riesgo de discriminación o el riesgo de que la máquina la incremente y, finalmente, el impacto sobre el mundo del trabajo. Estos riesgos, añadió, exigen el planteamiento de un abanico de medidas que van desde la prohibición de determinadas activades a la obligación de transparencia de los algoritmos aplicados, pasando por modelos reactivos, según la responsabilidad que se derive de los actos realizados, como sucede con el caso de las plataformas.

A este respecto, Antonio Muñoz aportó que la regulación va siempre detrás de la evolución tecnológica, porque no se puede regular algo que no existe, y que, en el caso de la IA, esta regulación se basa en los riesgos que genera el uso de la tecnología, tal como hace la propuesta de Reglamento de IA, que plantea como principales riesgos que cuanto más humana la IA, más se deshumaniza; el control de la toma de decisiones que afecten a la vida de las personas y las decisiones que pueden afectar a la calidad del sistema democrático.

En esta línea, Elena Otero-Novas recordó que la propuesta de Reglamento Europeo es una propuesta equilibrada que plantea tres niveles de sistemas: los prohibidos, por suponer un riego inaceptable para los derechos de las personas; los considerados de alto riesgo, por que no vale cualquier mecanismo para optimizar los procesos industriales o administrativos, y los de riesgo bajo, que quedan remitidos a la autorregulación que se pueda establecer.

Ana Buitrago coincidió en que se trata de un buen comienzo que intenta equilibrar las conductas que la UE ha identificado como peligrosas, a lo que Antonio Muñoz añadió ese enfoque basado en el riesgo que hemos mencionado anteriormente. En su opinión el Reglamento se orienta a velar por toda la cadena de valor de la IA, ubicando el gobierno de la IA en un modelo de cumplimiento o compliance. Sin embargo, en su opinión, se echa en falta una mayor capacidad por parte de las empresas para realizar una valoración propia de los riesgos que afrontan con el uso de esta tecnología. Además, llamó la atención sobre la importancia de la relación con el futuro contenido de esta propuesta y el Reglamento General de Protección de Datos (LA LEY 6637/2016), celebrando el paralelismo de organismos reguladores que se prevén, tanto el actual Supervisor Europeo, como las futuras agencias europeas o españolas sobre IA.

La responsabilidad por el uso de la IA y la importancia de la ética

En relación con los problemas de atribución de responsabilidad que plantea la IA, Ana Buitrago destacó que, en principio, de acuerdo con las propuestas que se están generando desde la Comisión Europea, aquella debe atribuirse al utilizador, en particular de los sistemas considerados de alto riesgo. Pero el problema, advirtió, es cuando no se sabe quién está detrás de uno de estos sistemas.

Y es que, como apuntó Antonio Muñoz, por una parte, los sistemas de IA están compuestos por un conjunto de elementos como el hardware, los datos de entrenamiento y los datos de validación, cada uno de los cuales plantea su propio componente de riesgo. Por otra, la cadena de valor de la IA es muy grande. Todo ello hace que se tienda a pensar en una responsabilidad objetiva por el uso de estos sistemas. Para lo cual, según apostilló Elena Otero-Novas, para vincular el daño a la persona que está detrás, puede pensarse en métodos como la intervención humana (human in the loop), como garantía de la toma de decisiones, o la certificación de determinados sistemas.

Por ello, es en estos momentos previos a la aprobación de la normativa, cuando, según añadió Buitrago, se debe incorporar la ética a una regulación ex ante, que se superponga a toda la regulación. Y aunque, como advirtió Elena Otero-Novas, ética y Derecho son ámbitos distintos, van de la mano. Ambas tienden a interactuar y dialogar entre sí, en particular si se tiene en cuenta que el respeto a los derechos fundamentales de la persona implica un enfoque ético.

Además, concluyó a este respecto Antonio Muñoz, la ética ha sido uno de los primeros principios en surgir en torno a la IA, pues sin ella hay elementos que se pueden quedar fuera de la regulación, como son el principio de autonomía de las personas, la explicabilidad o la minimización del daño.

Y, claro, ChatGPT

Finalmente, Srour planteó a los intervinientes su valoración del ChatGPT, la más relevante y aparentemente disruptiva novedad llegada al mundo tecnológico.

En este sentido, Antonio Muñoz señaló que esta tecnología pone de relieve la importancia del interfaz hombre-máquina, algo que le puede permitir tener un gran alcance en el ámbito profesional, principalmente si se logra que los usuarios acepten mantener interlocución con un interfaz confiable, además de otros usos como la detección de emociones.

Como añadió Elena Otero-Novas, esta herramienta va al núcleo de la manera de trabajar y de pensar de las personas. Por lo que, en palabras, de Ana Buitrago, cuenta con un gran potencial de crecimiento, todo teniendo en cuenta que se trata de una tecnología que no piensa.

Para concluir, Rafif Srour indicó que, desde su experiencia académica, el Chat va a cambiar el mundo académico, pero debe usarse para poner de relieve la importancia de pensar y fomentar el pensamiento crítico.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll