Cargando. Por favor, espere

El imparable avance de la inteligencia artificial pone de relieve la importancia de su regulación y la de los neuroderechos

El imparable avance de la inteligencia artificial pone de relieve la importancia de su regulación y la de los neuroderechos

  • 22-3-2023 | LA LEY
  • Una reciente mesa redonda organizada por Legal Hackers Madrid en torno a las principales novedades en torno a la IA y sus implicaciones técnicas, legales y ética, permitió conocer la situación actual de estas tecnologías y los principales retos jurídicos que plantean
Portada

Carlos B Fernández. Las tecnologías de Inteligencia Artificial (IA) siguen siendo unas de las grandes tendencias tecnológicas de nuestra. Y novedades como el ChatGPT no hacen sino aumentar su relevancia y notoriedad. Pero la IA sigue siendo un conjunto de tecnologías muy complejas que, por su progresiva implantación en múltiples áreas de la actividad humana y por la trascendencia de las decisiones que puede llegar a adoptar, no ha dejado de suscitar numerosos interrogantes éticos y jurídicos.

Por la naturaleza de esta tecnología, su consideración desde el punto de vista jurídico requiere de una inevitable aproximación a los fundamentos y principios básicos de la misma. Un ejercicio complejo pero necesario para poder plantear con fundamento unas pautas regulatorias, hoy en fase de elaboración.

De ahí el interés de una reciente mesa redonda organizada por Legal Hackers Madrid en torno a las principales novedades en torno a la IA y sus implicaciones técnicas, legales y éticas.

En ella participaron tecnólogos y juristas, de forma que se ofreció una perspectiva particularmente detallada de esa situación actual.

Aproximación y tendencias de la IA

Tras la presentación a cargo de Pilar Risueño, abrió la sesión Antonio Gramage, Project Manager en ISDEFE, quien realizó una rápida aproximación a la noción de IA.

Esta, a lo largo de la historia, ha conocido dos enfoques principales, la IA simbólica, basada en reglas, y la IA conexionista, basada en datos. Es decir, a la hora de abordar el diseño de máquinas inteligentes, entendiendo por tales aquellas capaces de realizar tareas asociadas a la capacidad de resolver problemas informáticos complejos, por medio del aprendizaje o el razonamiento lógico, se han seguido dos aproximaciones.

Una, IA simbólica, trató de dotar a la máquina de representaciones del conocimiento humano a las que pudiera aplicar unas reglas para alcanzar un resultado. Es decir, se trata de imitar el conocimiento y razonamiento humanos a través de la aplicación de unas reglas a unos símbolos por medio de un motor de inferencia.

La otra vía, la conexionista, deja que sea la máquina la que, a partir de unas pautas muy genéricas para la obtención de un resultado, sea capaz de encontrar y aplicar las reglas no evidentes para ello por medio del tratamiento de grandes volúmenes de datos. Con este fin, utiliza múltiples unidades de proceso o computación, denominadas neuronas artificiales que, funcionando en forma de redes entrelazadas entre sí (redes neuronales), imitan la forma de aprender de la mente humana.

Ambas aproximaciones ofrecen ventajas y limitaciones. Así, la IA simbólica sufre, en primer lugar, la dificultad de definir las reglas aplicables a supuestos complejos y la de modificar esas reglas una vez codificadas en un motor de inferencia. Esto se observó en las actualizaciones del conocimiento y reglas asociadas a un sistema experto donde la introducción de nuevas reglas no aseguraba la actualización del conocimiento obsoleto.

La doctrina ha mencionado también la dificultad procesar la enorme cantidad de posibles combinaciones que puede producir la relación entre supuestos de hecho y reglas (la denominada explosión combinatoria).

Otro de los problemas asociados al razonamiento simbólico, es la falta de significado de los símbolos que se emplean en el razonamiento. Dicho de otro modo, la máquina no conoce el significado de la información que maneja, por lo que es incapaz de asociar dichos símbolos a representaciones del entorno que no tengan una representación simbólica, lo que limita su capacidad para inferir nuevas reglas y generar nuevo conocimiento.

Por otra parte, esta metodología plantea problemas cuando debe tratar con datos no estructurados, como imágenes y audio, y tiene también una aplicación limitada para realizar tareas de procesamiento del lenguaje natural, donde tiene que tratar con datos textuales no estructurados, como artículos, libros, trabajos de investigación, notas médicas, etc.

En definitiva, señaló Gramage, “tal vez los símbolos no sean la mejor forma de representación del conocimiento en las máquinas como instrumento conductor de generación de conocimiento”.

Pero tampoco la IA conexionista está libre de problemas. Los principales, que sin una gran cantidad de datos que la provean de ejemplos de entrenamiento, los modelos de aprendizaje profundo funcionan mal. Y, simultáneamente, se produce que, en muchos dominios, no hay suficientes datos de calidad para entrenar modelos robustos de IA, lo que dificulta mucho la aplicación del aprendizaje profundo para resolver problemas.

Por otra parte, a menudo, es muy difícil interpretar e investigar el resultado ofrecido por una red neuronal. Algo especialmente problemático en aquellos ámbitos donde la explicabilidad de las decisiones automatizadas es un requisito legal.

Finalmente, se ha comprobado que las redes neuronales son susceptibles de manipulación por medio de ejemplos contradictorios, introducción de sesgos y/o datos adversarios, que pueden inducir un comportamiento errático o malicioso.

En este contexto, las tendencias que se aprecian en la actualidad se orientan a:

- IA Neurosimbólica

Esta metodología, desarrollada por el MIT e IBM, se basa en un enfoque híbrido que combina el razonamiento simbólico con redes neuronales, como medio para abordar los desafíos fundamentales del razonamiento, las representaciones jerárquicas, el aprendizaje por transferencia, la solidez frente a ejemplos contradictorios y la interpretabilidad (o poder explicativo).

- Teoría de los Mil cerebros – GAN (redes generativas adversarias)

Basada en los trabajos del neurocientífico norteamericano Jeff Hawkins, esta teoría considera que la esencia de la inteligencia reside en la capacidad del cerebro para predecir el futuro a partir de la ingente cantidad de información sobre el mundo que va acumulando en su memoria (memory-based model). Si se aplica esta teoría al aprendizaje profundo, puede ayudar a superar los ejemplos adversarios y llegar a un nivel de resiliencia, consistencia y flexibilidad similar al de los humanos.

- Deep Reinforcement Learning Human Feedback (Aprendizaje profundo por refuerzo y feedback humano)

Se trata de un método de aprendizaje de máquinas por refuerzo con retroalimentación humana. Aplicado para optimizar los grandes modelos de lenguaje, ha alcanzado gran éxito con el ChatGPT, al permitir alinear un modelo entrenado en un corpus general de datos de texto con valores humanos complejos.

Gramage concluyó su intervención con sus predicciones en materia de IA para este año, de las que destacamos la aparición de GPT4 orientado a múltiples tareas no solo generación de texto; el hecho de que las Big Tech comenzaran a monetizar sus productos y abrir sus resultados propiciando un mayor impulso de la comunidad open source y, por supuesto, la promulgación del Reglamento Europeo de IA, posiblemente para el verano.

Todo ello teniendo en cuenta que la IA no es nada democrática, porque está en manos de unas pocas grandes compañías que tienen el capital y el acceso a los datos necesarios, pero que no va a facilitar sus modelos de computación ni sus valores de interconexión, lo que complica el ajuste fino (fine tuning) de estos sistemas.

En este contexto, Jesús Salvador Rueda, Responsable de sistemas TIC de ADIF, explicó que casi todo lo que un día pudimos soñar o creer que podría pasar, está comenzando a pasar.

Eso no implica que estemos cerca de la denominada IA general, porque las redes neuronales son todavía muy ineficientes y porque, a diferencia del cerebro humano, por ahora no entienden los conceptos con los que trabajan. “Si las redes neuronales acaban acertando en sus predicciones, es por reiteración”, señaló.

Este es momento de la IA, pero con la “A” de “Aumentada”, que favorece el trabajo del binomio hombre-máquina, que es imbatible.

Cerró este bloque técnico José Mussach, Consultor Senior Experto en IA, con un ejemplo de aplicación de la IA y el ChatGPT a un sector tan específico como el inmobiliario, en tareas como la búsqueda de inmuebles, su geolocalización, la generación de imágenes, la elaboración de resúmenes de contenidos jurídicos relativos a los mismos (legal hacking), la traducción de textos, la realización de entrevistas con potenciales compradores o la gestión de la recuperación de deuda.

Estas tecnologías, explicó, van a permitir abrir nuevos modelos de negocio, incluso a personas que no sean programadores, a la vez que van a realizar cada vez más tareas que realizan los seres humanos.

Frente a las neurotecnologías, neuroderechos

A continuación, Maite Sanz de Galdeano, abogada y consultora, abordó otra de las tecnologías más novedosas y, a la vez, inquietantes, de la actualidad, las neurotecnologías.

Estas pueden definirse como el conjunto de herramientas que sirven para analizar e influir sobre el sistema nervioso del ser humano, especialmente sobre el cerebro. Como explicó esta experta, estas tecnologías pueden clasificarse en invasivas o no invasivas, según que su aplicación se realice desde fuera o desde dentro del propio ser humano. También pueden distinguirse aquellas que solo pretenden registrar la actividad cerebral de aquellas otras que, además, pretenden modularlo o influir en el mismo. Y, finalmente, cabe hablar de neurotecnologías de uso médico o de uso no médico

Estas tecnologías plantean el gran problema de ser potencialmente muy invasivas, ya que por medio de ellas se pueden acceder a áreas de la mente humana que tienen que ver con los rasgos más íntimos de la persona, como son sus pensamientos, creencias y sentimientos.

En este sentido citó la tecnología iComodative, construida a partir de la técnica P300 o del potencial cognitivo evocado, que posee una capacidad sin precedentes de descubrir información oculta en la mente de una persona, revelando sus planes e intenciones futuras, así como su posible relación con cualquier acción pasada relacionada con una actividad delictiva.

Es decir, la ciencia se encuentra en un momento próximo a la posibilidad de leer la mente y, con ello, de manipular, consciente o inconscientemente, el comportamiento de las personas. Por ejemplos, experimentos de laboratorio ya han permitido, mediante la implantación de electrodos en el cerebro de ratas, hacer que los animales vieran cosas que en realidad no estaban ahí. Es decir, controlar la actividad de su cerebro.

Ante ese panorama, señaló Sanz de Galdeano, desde diversas instancias científicas se está impulsando el reconocimiento de unos neuroderechos, o nuevos derechos humanos directamente relacionados con la protección de la actividad cerebral de los individuos.

En la actualidad, se habla de cinco neuroderechos:

− Derecho a la Identidad

− Derecho al libre albedrío

− Derecho a la privacidad mental

− Derecho al acceso justo al aumento mental

− Derecho a la protección contra el sesgo algorítmico

Como añadió a continuación Paloma Llaneza, CEO de Razona LegalTech, esos nuevos neuroderechos han cobrado una gran importancia, porque gracias a tecnologías como el metaverso, en un futuro podremos tener recuerdos sintéticos (generados en entornos virtuales). Y el hecho de que esos datos puedan ser tratado por medio de sistemas inteligentes, plantea grandes riesgos.

“Ya hemos perdido la batalla de la protección de datos, así que no hay manera de impidir que se utilicen montones de datos sesgados para entrenar la IA. Ahora se trata de que no perdamos la de la protección de la privacidad mental”.

El gran reto, añadió, es cómo impedimos que los datos mentales acaben siendo tratados indebidamente. Para ello, propone, en primer lugar, limitar el uso del hardware que recaba esos datos aplicando a esos aparatos unos criterios similares a los de aplicados a los aparatos de uso médico o militar, que están sometidos a estrictas condiciones de utilización. En otro caso, previene Llaneza, habremos perdido la capacidad de tomar libremente decisiones, de pensar, y hasta de tener una propia identidad.

En este mismo sentido, propuso un modelo de sistemas legales que se reconozcan entre sí y fuesen capaces de salvar el problema de la dificultad de ejecutar lo que se resolviera.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll