Cargando. Por favor, espere

La Inteligencia Artificial y la gobernanza del dato, ante un nuevo horizonte regulatorio

  • 30-4-2021 | Wolters Kluwer
  • Abordamos uno de los temas que han dominado todos los debates jurídico-tecnológicos desde hace unos años: la Inteligencia Artificial. Y, en paralelo con él, el de la gobernanza del dato. Para el jurista, esta aproximación necesita, inexcusablemente, del concurso de los técnicos y por eso en esta ocasión hemos invitado a dos de los más reputados expertos en la ciencia de la IA, como son Senén Barro y Ramón López de Mántaras y junto a ellos, las aportaciones, desde el punto de vista jurídico, de Ricard Martínez, Susana Navas e Idoia Salazar.
Portada

Carlos B Fernández. Continuamos la celebración de los cincuenta números de Diario La Ley Ciberderecho, abordando uno de los temas que han dominado todos los debates jurídico-tecnológicos desde hace unos años: la Inteligencia Artificial. Y, necesariamente en paralelo con él, el de la gobernanza del dato.

La IA parece que va a ser la tecnología más disruptiva desde la llegada de internet y de la telefonía móvil. Pero, a diferencia de las anteriores, es la menos usable por los ciudadanos que, en la mayoría de las ocasiones, parecen llamados a ser meros sujetos de sus efectos, en vez de usuarios de la misma.

Sin caer en la trampa distópica que tanto ha perjudicado al análisis de esta tecnología, la IA se asemeja más a una herramienta industrial, propia del mundo de la empresa. Pero, con unas características muy particulares. En muchas ocasiones, su materia prima van a ser los datos personales de millones de usuarios. Y sus efectos para estos, sobre todo cuando la IA sea utilizada por grandes organizaciones o por las administraciones públicas, potencialmente muy generalizados e intrusivo para los derechos de los ciudadanos.

Por eso la preocupación de los juristas ha sido, desde hace tiempo, establecer límites o restricciones a su desarrollo, desde las fases más tempranas del mismo. En este sentido, la reciente propuesta de Reglamento Europeo sobre Inteligencia Artificial constituye un hito indiscutible. Cuando se apruebe, va a ser la primera vez que, a nivel global, se establezca un marco jurídico específico para una tecnología.

A la vez, esta propuesta debe considerarse junto con casi coetánea de Reglamento sobre la gobernanza del dato (Data Governance Act). Inteligencia Artificial y datos, personales y no personales, constituyen un binomio inseparable. Y su regulación, uno de los mayores retos para el futuro del Derecho.

Para el jurista, esta aproximación necesita, inexcusablemente, del concurso de los técnicos. Sin esa combinación de saberes, será imposible entender en todo su alcance, la complejidad del fenómeno y la adecuada fijación de su normativa.

Por eso, en nuestro especial de hoy hemos invitado a dos de los más reputados expertos en la ciencia de la IA, como son Senén Barro, Catedrático del área de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Santiago de Compostela y Ramón López de Mántaras, ex director y Research Professor del Centro de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (IIIA-CSIC).

Junto a ellos, las aportaciones, desde el punto de vista jurídico, de Ricard Martínez, profesor de Derecho Constitucional y Director de la Cátedra Microsoft de Privacidad y Transformación Digital de la Universitat de València; Susana Navas, Catedrática de Derecho Civil de la Universidad Autónoma de Barcelona e Idoia Salazar, presidenta del Observatorio sobre el impacto Social y ético de la IA (OdiseIA).

1. ¿Cómo ha evolucionado la Inteligencia Artificial en estos últimos años?

Senén Barro: La Inteligencia Artificial comenzó bioinspirada, antes incluso de recibir ese nombre, que fue definitivamente acuñado en 1956. El primer modelo matemático de neurona, surgido del aún incipiente conocimiento de las neuronas y su funcionamiento, fue propuesto en 1943, por ejemplo. Con el tiempo y el avance de las computadoras, comenzaron a desarrollarse aproximaciones basadas en la manipulación simbólica. Manipulando símbolos se puede representar conocimiento útil para la resolución de problemas complejos en ámbitos del conocimiento humano, y aplicar técnicas que permiten utilizarlo en procesos de razonamiento computarizados. Hablamos de los sistemas expertos o, de modo más general, sistemas basados en conocimiento. Estos tuvieron sus mejores días en los años 80 y 90.

En este siglo en el que andamos, en particular en la pasada década, la computación neuronal recuperó su esplendor, sobre todo de la mano de mejores algoritmos (en particular el denominado de aprendizaje profundo), el aumento de la potencia de cálculo de las computadoras y la disponibilidad ingente de datos e información de todo tipo, disponible a día de hoy en Internet y en otros grandes repositorios.

Ramón López de Mantaras: Lo más destacable es que hemos pasado de una IA basada en la representación de conocimientos mediante lenguajes de representación simbólicos basados en extensiones de la lógica matemática, a sistemas basados en detectar patrones en grandes cantidades de datos. Es decir, lo que se conoce como “aprendizaje profundo”.

Esta IA basada en datos masivos ha sido posible gracias a la disponibilidad de enormes cantidades de datos y una mejor accesibilidad a computación de altas prestaciones pero, en realidad, hay bastante poca "ciencia nueva” pues los conceptos fundamentales de los algoritmos de aprendizaje profundo se conocían desde hacía unos treinta años.

Esta evolución de la IA tiene el inconveniente de que los sistemas resultantes carecen de capacidades explicativas y en algunas aplicaciones ello supone una limitación importante a la hora de confiar en los resultados que proporcionan estos sistemas. También tienen importantes problemas de robustez en el sentido de que producen resultados claramente erróneos cuando los datos sobre el problema a resolver no estaban representados en el conjunto de datos de entrenamiento, Es lo que se conoce en estadística como el “long tail problem”.

Tampoco aprenden incrementalmente ni relacionan lo aprendido con lo anteriormente conocido, lo cual produce lo que se conoce como “olvido catastrófico”, es decir que cuando aprenden algo nuevo olvidan lo anteriormente aprendido.

Ricard Martínez: Por decirlo de un modo gráfico se ha pasado del “move fast and break things” a la evaluación de impacto ética y jurídica. Hemos entendido que cierto sector del Ordenamiento es directamente aplicable en la materia, y me refiero con ello a la garantía de los derechos fundamentales. Y que la regulación sectorial debe ser tenida en cuenta, aunque en ella no aparezca literalmente la expresión “inteligencia Artificial”. Basta con leer el informe del grupo de expertos de alto nivel en ética de la Unión Europea para identificar el significativo porcentaje de principios “éticos” que o bien se apoyan sobre bienes y valores regulados, o bien pueden relacionarse con principios jurídicos básicos. Así, cuando se habla de inclusividad o de corrección del sesgo, es inevitable vincularlas al derecho a la igualdad, o si hablamos de transparencia y explicabilidad podemos referirnos a la buena fe y al Derecho de daños. Y si pensamos en el principio de no maleficiencia podríamos remontarnos a Ulpiano.

Susana Navas: Aunque la inteligencia artificial estaba ya presente en nuestra vida cotidiana, en formas menos sofisticadas que las que se conocen en la actualidad, su consideración jurídica, dejando a salvo, la jurimetría, recibió un impulso decisivo, por un lado, con el Reglamento General de Protección de Datos (LA LEY 6637/2016) al incluir, en sus arts. 14.2 y 21, una referencia importantísima a las decisiones automatizadas y a la elaboración de perfiles y, por otro, con la Resolución del Parlamento europeo de 16 de febrero de 2017 [P8_TA(2017)0051], que se refería a la robótica (embodied AI). Después el punto de mira se ha ido desplazando hacia la non-embodied AI.

De la preocupación inicial acerca de las reglas de responsabilidad por los daños ocasionados por la IA hemos pasado a acoger una definición jurídica de la misma incluyendo sus diversas variantes, que no son más que reflejo de la concepción de la IA por las ciencias de la computación y a proponer una regulación que pretende erigirse en un modelo para otros países y continentes.

Me parece, de todos modos, una regulación que, aunque pretende dar un marco seguro a la innovación, no la potencia precisamente. Hemos pasado de la casi indiferencia al entusiasmo.

Idoia Salazar: La Inteligencia Artificial (IA) ha evolucionado de manera exponencial en los últimos años. No es una tecnología nueva (data de 1950). Sin embargo, es ahora cuando tenemos el Big Data necesario y la potencia de cómputo suficiente para poder desarrollarla. A esto se une otra cuestión importante. Nosotros, como humanos, tenemos capacidades limitadas de procesamiento de información en nuestro cerebro. Comparados con las "máquinas" somos lentos y, a veces, olvidadizos. Así, al igual que, durante la Revolución Industrial, el Hombre inventó máquinas físicas para hacer más rápido, y de manera más eficiente, el trabajo de los campos, ahora hemos dado un fuerte impulso a estos algoritmos de IA que nos ayudan intelectualmente a lidiar con esta inmensa cantidad de datos que no para de crecer de manera exponencial. Es una herramienta, de ayuda al ser humano, muy necesaria en el momento actual.

Es un hecho que la IA tiene cada vez más aplicaciones en casi todos los sectores de la economía y en la administración pública. PwC estima que el mercado global de IA será de 15.7 trillones en 2030 de dólares. La evolución del machine learning (aprendizaje automático), el procesamiento de lenguaje natural (capacidad de las máquinas para comunicarse con nosotros), y el Deep Learning (aprendizaje profundo) marcarán sin duda los próximos años. Y estas cuestiones supondrán una revolución en cuento a la forma en que asumiremos esta tecnología en nuestro día a día, en la que nos relacionaremos con las "máquinas". Podemos pensar en aplicaciones como recomendaciones, filtros de spam, buscadores, traducción automática, diagnóstico médico, el coche autónomo, luchar contra el cambio climático y desastres naturales, y claramente el COVID-19, educación personalizada, entre otras cosas. Todo el Big Data que se genera requiere de IA para gestionarse de manera eficiente.

Todo esto generará productos y servicios mucho más personalizados que los que tenemos ahora. Para las empresas supondrá un ahorro importante de costes, una vez resuelta la inversión inicial, ya que podrán basar sus desarrollos en base a predicciones y patrones muy concretos con un alto porcentaje de fiabilidad. El sector de la salud y el jurídico serán algunos de los más beneficiados en los próximos años. Veremos el surgimiento y la rápida evolución de la medicina predictiva, de tratamientos médicos personalizados, de sentencias judiciales más rápidas… Habrá una mayor eficiencia en todos los procesos que empleen IA.

2. ¿Cuáles han sido los hitos de esa evolución?

Senén Barro: No hay una teoría general de la inteligencia, tampoco de la artificial. Hemos llegado hasta el presente después de décadas de desarrollado de algo parecido a una “caja de herramientas inteligentes”. Hablamos de herramientas conceptuales, metodológicas, tecnológicas… de modo que en función del problema abordado se usa una u otra herramienta, y no siempre la más adecuada. A veces hay quien solo usa el “martillo” y hasta clava tornillos con él. Por cierto, estas herramientas se han ido perfeccionando por prueba y error, como también obró la evolución en el diseño del soporte de nuestra inteligencia.

La más poderosa y versátil de las herramientas desarrolladas hasta la fecha son las redes neuronales profundas y sus variantes. Su capacidad para aprender de grandes conjuntos de datos se puso de manifiesto en 2012, cuando el equipo del profesor Geoffrey Hinton de la Universidad de Toronto, galardonado en 2018, junto con Yoshua Bengio y Yann Lecun, con el premio Turing, el considerado Nobel de las ciencias de la computación, aplastó a todos sus rivales en un reto de reconocimiento de imágenes. Se trataba del ImageNet Large-Scale Visual Recognition Challenge. Lo hicieron aplicando su algoritmo "SuperVision", basado en "redes neuronales convolucionales profundas", con el que lograron un error del 16,4% en la clasificación de 1,2 millones de imágenes de alta resolución pertenecientes a un millar de clases diferentes. Un error muy inferior a las mejores soluciones del momento, que no conseguían bajar del 25% de fallos. A día de hoy ya se ha logrado bajar del 5% de errores, considerada la cifra de referencia o patrón humano de acierto en este problema. SuperVision lideró el camino para superar a los humanos en otras tareas de reconocimiento de imágenes y de patrones, en general, y dar un arreón a otros problemas incluso más complejos, como la generación de lenguaje natural o la traducción automática.

Ramón López de Mantaras: Sin duda, los grandes éxitos del aprendizaje profundo en aquellas tareas cuya solución depende exclusivamente del reconocimiento de patrones, como por ejemplo el reconocimiento de objetos en imágenes o el reconocimiento del habla e incluso la traducción automática. Los ejemplos más conocidos son sistemas capaces de aprender a jugar a Go, al ajedrez al más alto nivel o la detección de tumores en imágenes médicas.

"Los istemas inteligentes no comprenden absolutamente nada de los que hacen y son incapaces de explicar el porqué de sus decisiones"

Sin embargo, conviene aclarar que estos sistemas no comprenden absolutamente nada de los que hacen, tienen lo que Daniel Dennett llama “habilidades sin comprensión” y, además, como he mencionado antes, son incapaces de explicar el porqué de sus decisiones.

Ricard Martínez: Para mí la lectura de “El Código y otras leyes del ciberespacio” (Lessig) y la literatura jurídica norteamericana sobre “informational privacy” que arranca con Alan Westin en los últimos sesenta primeros 70 del siglo pasado, y es continuada por Schwartz, Allen, Cate y Solove marcan un hito fundamental.

Del mismo modo, en nuestra área no podría entenderse la evolución sin los trabajos de la doctrina italiana sobre la ius-cibernética y las aportaciones de Frosini y del nunca bastante llorado Rodotà. En España abordaron brillantemente la tarea Pérez Luño y Pablo Lucas Murillo.

El primer hito es sin duda el del pensamiento. Pensamiento y debate, al que no son ajenas en absoluto las organizaciones de la sociedad civil.

El segundo hito, viene marcado por la labor de los tribunales. Recordemos el caso Yahoo ante el Tribunal de Gran instancia de París, la posición del Tribunal Constitucional Federal Alemán en materia de autodeterminación informativa, y después el modo en el que el Tribunal Europeo de Derechos Humanos y el Tribunal de Justicia de la Unión Europea han abordado la tecnología. Los tribunales lanzaron un mensaje claro de garantía de la tecnología frente a los derechos fundamentales y de aplicación del modelo europeo frente a quienes se amparaban en el subterfugio de la ausencia de normas o la extraterritorialidad.

El tercero sin duda se define por el despliegue normativo en el marco regulador del derecho fundamental a la protección de datos. Con este marco normativo hemos aprendido como disciplinar la tecnología y como debe ser un enfoque centrado en el ser humano y en la metodología de análisis de riesgos. No debe olvidarse en este contexto las aportaciones de la CNIL, que fomento un debate amplio y multidisciplinar, y los pronunciamientos del Supervisor Europeo de Protección y la AEPD sobre IA. Por otro lado, el Convenio de Oviedo nos hizo aprender sobre la importancia de la ética y de los valores humanos en el desarrollo tecnológico.

Y ahora, con la propuesta de Reglamento de la UE sobre Inteligencia Artificial afrontamos el futuro con todo este amplio bagaje.

Susana Navas: Uno de los hitos ha sido sin duda el RGPD, que exige que se informe a la per-sona de la lógica empleada en el perfilado. Otro la creación de distintos grupos de trabajo en el seno de la UE para abordar el estudio de diferentes aspectos relacionados con la IA.

Merece la pena destacar el Grupo de expertos de alto nivel en IA que ha elaborado informes con recomendaciones que se ven reflejadas tanto el White Paper on AI [COM(2020) 65 final, 19.2.2020] hito importante en esta evolución, en la Resolución del Parlamento europeo, de 20 de octubre de 2020, en la que se hace una Propuesta de Reglamento relativo a la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial [P9_TA-PROV(2020)0276] y en la proyectada regulación de la IA que acaba de darse a conocer [Proposal for a Regulation of the European parliament and of the Council laying down harmonised rules on AI, COM(2021) 206 final, 21.4.2021].

Otro hito importantísimo es el hecho de que la evolución jurídica de la IA corre paralela a la gran atención que la UE está proporcionando al flujo de los datos y a la gobernanza de los mismos con una propuesta de regulación [Proposal for a Regulation on European Data Governance, COM(2020) 767 final], puesto que sin datos la IA no ofrece la utilidad que se espera de ella. Finalmente, debe destacarse el interés de la academia por el tema lo que ha llevado a publicar trabajos, libros, a crear diarios como el de La Ley Ciberderecho, revistas especializadas y asociaciones para la difusión y el estudio de la IA.

"La Inteligencia Artificial no es una tecnología como las demás en el sentido en que nos despierta cuestiones inherentes a la esencia del ser humano"

Idoia Salazar: La Inteligencia Artificial no es una tecnología como las demás en el sen-tido en que nos despierta cuestiones inherentes a la esencia del ser humano: ¿Puede una máquina ser ‘inteligente’? ¿Pueden tener sentimientos? ¿Podrían llegar a su-perarnos como especie? Ninguna otra tecnología precedente había hecho plantear-nos preguntas similares. Soñar con que esos "mitos" se materializaran. Para entender el por qué debemos trasladarnos por un lado a la ciencia ficción. La imaginería popular ha adquirido ciertos prejuicios asociados a la cinematografía y las novelas de este género. Principalmente en el mundo occidental películas como 2001, Odisea en el Espacio o Terminator plantean un escenario apocalíptico en el que ‘máquinas’ autónomas toman sus propias decisiones y suponen un perjuicio para el ser humano. Ahora algunos de estos "robots" han saltado de la gran pantalla a los telediarios. Lo que hasta hace unos años era ciencia ficción ahora es realidad. Todo esto, a la sociedad en general, le hace plantearse, si los siguientes pasos que nos esperan no serán similares a los veíamos en estas apocalípticas películas… y acabarán relegándonos, en muchos as-pectos…. o en casi todos. De hecho, algunos de los grandes hitos de esta evolución han venido marcados por ideas relacionadas con este tipo de prejuicios. Por ejemplo, en 1997, el sistema de IBM llamado Deep Blue venció al campeón mundial de ajedrez, Gary Kasparov, llegando a mostrar incluso lo que conocemos como "creatividad" en su estrategia. Este fue un momento importante en la historia de la IA porque, además, de la evolución técnica que supuso la preparación para esa competición, empezamos a comprender mejor las increíbles capacidades de esta tecnología. Fue un momento en que empezamos a concienciarnos si deberíamos dejarnos llevar sólo por la evolución de la técnica o empezar a pensar también en ética, y en otras cuestiones que nos llevaran a pensar más en la frase: "No porque podamos hacerlo debemos hacerlo".

3. ¿Cuáles son los principales retos que tiene por delante?

Senén Barro. Voy a distinguir entre lo que son las realidades prácticas que se están abordando, y que seguirán desarrollándose aceleradamente, y una inteligencia artificial que vaya más allá de las aplicaciones concretas, por muy complejas y sofisticadas que sean. Me refiero en este caso a la que se denomina Inteligencia Artificial de propósito general, de la que no solo estamos muy lejos, sino que no sabemos todavía como meterle el diente.

"La IA debe responder al interés general, ser confiable y evitar al menos que se incrementen las desigualdades"

En cuanto al desarrollo de la IA de propósito específico y a su uso, es fundamental que responda al interés general, que sea confiable y que se evite al menos que incremente las desigualdades, algo que ocurrirá si se deja que su evolución y uso sean dictados únicamente por el mercado.

Uno de los denominados padres de la IA, Marvin Minsky, fallecido en 2016 y que fue premio Fronteras del Conocimiento de la Fundación BBVA, creía que será cuestión de tiempo que se logren máquinas más inteligentes que las personas. Sin embargo, Minsky abogaba por una IA en la que jóvenes brillantes persiguiesen nuevas ideas, no las apuntadas por sus maestros. Creo que este es precisamente el enfoque con el que hay que abordar no sé si nuevos desarrollos y aplicaciones, pero sí al menos el aprendizaje de propósito general, indispensable, a mi juicio, para lograr la IA de propósito general.

Ramón López de Mantaras: En mi opinión en reto principal a corto plazo es dotar de capacidad explicativa a la IA y para ello hace falta “hibridar” estos sistemas de aprendizaje profundo con sistemas clásicos de IA simbólica. Ello está relacionado con el reto de dotarlos de un mínimo de comprensión, es decir de semántica tanto a la hora de procesar el lenguaje como de interpretar escenas visuales.

Otro reto es conseguir una IA más general, en el sentido de que sea “multi-tarea” pues actualmente todos los sistemas de IA son sumamente específicos, es decir incapaces de llevar a cabo mas de una única tarea. El enfoque para abordar este reto pasa por abordar el problema de como dotar de conocimientos de sentido común a las máquinas. Este es el problema sin duda más difícil e importante de la IA que venimos arrastrando desde hace sesenta años y que no sabemos realmente como resolver. En los últimos años se están alcanzando algunos progresos en el aprendizaje y representación de relaciones causa-afecto que, en mi opinión, son un buen enfoque para dotar de algunos aspectos relacionados con el sentido común a la IA, aunque no todos los conocimientos de sentido común se basan en la comprensión de relaciones causa-efecto.

Ricard Martínez: Seré muy breve en esta respuesta: el reto va a consistir en definir un marco que complete el ordenamiento desde un enfoque al servicio del ser humano.

"El principal reto de la IA va a consistir en definir un marco que complete el ordenamiento desde un enfoque al servicio del ser humano"

Sin embargo, este proceso enfrenta varios riesgos. El primero de ellos la proverbial lentitud de la Unión Europa. La prisa nunca fue buena consejera, pero la excesiva lentitud es paralizante. Y lo que es peor, obliga a una constante reingeniería de procesos para las organizaciones más diligentes que se preparan con antelación.

El segundo reto es contar con un buen diagnóstico. La metodología de la “protección de datos desde el diseño y por defecto”, debería alcanzar al legislador, lo que hemos aprendido con la analítica de datos y la inteligencia artificial. Ni se puede legislar, ni se pueden diseñar políticas públicas desde la ocurrencia, y lo que sería mucho peor desde el miedo. El método científico, ponderar los riesgos, manejar los datos es crucial.

El último reto que quiero citar es, en mi opinión, el mayor. En protección de datos aprendimos que la norma cuando sólo prohíbe, y el regulador cuando sólo sanciona, no solo no consigue sus objetivos sino que además paraliza la ciencia, la investigación, y la innovación. No volvamos a cometer estos errores.

Susana Navas: Uno de los retos que tiene por delante es claramente la modificación de Directiva 85/374/CEE, de 25 de julio de 1985 (LA LEY 1943/1985) sobre responsabilidad por productos defectuosos (DOCE 210, 7.8.1985), la Directiva 2006/42/CE del Parlamento europeo y del Consejo, de 17 de mayo del 2006 (LA LEY 5808/2006), relativa a las máquinas (DOUE, L 157/24, 9.6.2006), de la que también ya existe un proyecto de regulación [COM(2021) 202 final], es decir, establecer un marco regulatorio acerca de los regímenes de responsabilidad en función de la distinción entre alto riesgo y bajo riesgo.

Además, creo que deberían revisarse así mismo las Directivas relacionadas con los consumidores, tanto la Directiva sobre derechos de los consumidores (Directiva 2011/83/UE, de 25 de octubre de 2011 (LA LEY 21601/2011), sobre derechos de los consumidores, DOUE L 304/64, 22.11.2011), como la Directiva de contenido y servicio digital (Directiva (UE) 2019/770 del Parlamento europeo y del Consejo de 20 de mayo de 2019 (LA LEY 8797/2019) relativa a determinados aspectos de los contratos de suministro de contenidos y servicios digitales, DOUE L 136, 22.05.2019). En definitiva, evitar solapamientos entre normativas y ofrecer un marco normativo que ofrezca seguridad al tráfico jurídico económico y que no desincentive la inversión.

Otro gran reto es conseguir una IA explicable y transparente para el humano. Otro gran reto es la efectiva gobernanza de los datos con la finalidad de que estos datos se compartan. A ello debe añadirse la necesidad de que se incorporen a los ordenamientos jurídicos internos la Directiva (UE) 2019/790, de 17 de abril de 2019 (LA LEY 8414/2019), sobre los derechos de autor y derechos afines en el mercado único digital (DOUE L 130/92, de 17 de mayo) para que se aplique la excepción a los mismos en caso de minería de datos y textos (arts. 3 y 4). Esta Directiva, aun no incorporada al derecho español, está siendo muy criticada por lo restrictiva que es.

Además, las interfaces cerebro-ordenador y, en general, las neurotecnologías, desde una perspectiva jurídica, deberían abordarse en los próximos años. Desde el Derecho, debería revisarse la Ley orgánica 3/2018 de 5 de diciembre (LA LEY 19303/2018), de protección de datos personales y garantía de los derechos digitales (BOE núm. 294, de 6 de diciembre), para rehacer el listado de derechos digitales.

Finalmente, la introducción de la perspectiva de género en la IA me parece un reto significativo.

Idoia Salazar: El impacto de la IA afectará en breve a muchas de nuestras rutinas y cambiará forma de ver la vida, relacionarnos, trabajar… Esta tecnología tiene un poder muy grande. El poder de la toma de decisiones autónomas. El poder de cambiar el modo que tenemos de ver cualquier área en general. Miraremos al futuro siendo capaces de prever, con un alto grado de fiabilidad, múltiples cuestiones, lo cual nos aportará una mayor eficiencia y prestación en prácticamente cualquier cosa que toque esta tecnología. Estamos hablando de medicina predictiva, predicción de delitos, de catástrofes naturales, de ayudar a la educación del futuro, de hábitos de consumo, de hábitos de movilidad para mejorar la eficiencia de las ciudades…. Pero como todo, esta tecnología también puede ser usada para el mal y tiene sus riesgos (aunque no intencionados), si no se toman las precauciones adecuadas. En el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) estamos trabajando para ello, para aconsejar en el buen uso de la IA, en los riesgos conscientes, pero sobre todo en los inconscientes; en la educación a todos los niveles para conseguir también una concienciación social sobre estas tecnologías. Enseñar a la sociedad, en general, sus ventajas, pero también sus riesgos reales --muchos por ahora, ligados a la privacidad de los datos--. Esperamos que todo ello, contribuya a crearnos un futuro mejor en el que podamos aprovechar las grandes ventajas que nos aportarán esta disruptiva tecnología desde un punto de vista responsable y ético.

Ahora estamos en un momento en que el ser humano debe decidir qué hacer con esta tecnología. Este es el gran desafío que tenemos con la Inteligencia Artificial: saber encaminarla bien de manera que suponga un beneficio para la humanidad… y no un perjuicio. Debemos mantener al hombre como centro… y no dejar evolucionar esta tecnología, por mucho que tenga capacidad para ello, para conseguir ese futuro apocalíptico. En nuestras manos está… por ahora.

4. ¿Con qué enfoque deberían abordarse esos desafíos?

Ricard Martínez: El del bien común, el de la garantía de la inviolabilidad del ser humano y de sus libertades y derechos fundamentales. No podemos asumir el riesgo de usos que cercenen y manipulen nuestra libertad ideológica, nuestros hijos e hijas no deben crecer en una sociedad vigilada, no podemos dejar a nadie atrás, no podemos soportar la transformación digital y la IA dejando el camino cubierto de cadáveres. El desarrollo sostenible, el equilibrio ecológico del planeta, un modelo abierto de democracia participativa, la reducción de las condiciones laborales riesgosas, mecánicas y alienantes, el soporte a mayores y personas con discapacidad, un nuevo modo de entender la medicina, la gestión de la movilidad… Ahí afuera esperan a la IA un conjunto de objetivos y logros liberadores para el ser humano. Lograr un marco que dinamice y soporte el bien común haciendo crecer nuestras capacidades en IA garantizando los derechos, es un reto inexcusable.

Susana Navas: El enfoque debe ser abierto, flexible, que incentive la innovación, que proporcione un marco jurídico seguro en el que se sigan incorporando los principios éticos. También deberían crearse comisiones de estudios de estos temas de forma más transversal e interdisciplinar. La puesta en marcha de sandboxes regulatorias para sectores específicos podría permitir que se vieran las necesidades legales de cada sector evitando así solapamientos de normativas y sería igualmente una forma de dar entrada a los sistemas de IA completamente autónomos sin supervisión que parecen desechados de la Propuesta de Regulación de la IA de 21 de abril de 2021.

Asimismo, desde la educación y formación se pueden abordar estos desafíos desde la base mediante programas específicos que expliquen qué es la IA y cómo puede usarse en beneficio de todos. Grados universitarios en IA y Derecho en los que se aborden los cambios de la práctica jurídica, así como la introducción de asignaturas específicas dedicadas a ello es una perspectiva que debe fomentarse para poder abordar los desafíos de la IA con conocimiento.

Idoia Salazar: Desde un enfoque ético y con el humano como centro, sin duda. Como no lo hagamos así, probablemente se nos vaya de las manos y lleguemos a este futuro apocalíptico de las películas occidentales. El enfoque ético se tiene que dar en todo el proceso del desarrollo algorítmico: desde la elección y revisión de los datos de los que se alimenta el algoritmo de IA, la elección o diseño del modelo y el resultado.

Han sido muchos los intentos de crear distintos códigos de ética internacionales para la Inteligencia Artificial para intentar prevenir los malos usos y desarrollos. Prácticamente todos, abogan por tener en cuenta las medidas de: transparencia, explicabilidad, sesgos, ser humano como centro, y privacidad y seguridad en el diseño de los modelos.

Algunos de estos puntos a tener en cuenta ya están protegidos por leyes específicas, como es el caso de la Privacidad y el Reglamento europeo de protección de datos. Otros riesgos implícitos en algunos casos de uso de esta tecnología están siendo estudiados y en proceso de aprobación de ley por parte de las autoridades competentes. Pero, mientras que se implementan, es necesario que sigamos aplicando estos principios éticos para ir guiando la rápida evolución de esta tecnología de manera ventajosa para la humanidad.

Debemos tener en cuenta que la máquina no tiene ética, concibiendo la palabra ética como un acto ‘consciente’ que te lleva a una elección buena o mala. No existe "consciencia" en la máquina… al menos por ahora. Sin embargo, sigue habiendo mucha "inconsciencia" en el ser humano a la hora de revisar convenientemente los datos para entrenar el sistema de IA para prevenir posibles sesgos y consecuencias negativas en la toma de decisiones.

Recalco, de nuevo, esta frase importante en este momento de la Historia que estamos desarrollando: "la palabra puedo debe de ser sustituida por debo". El hecho de llegar a desarrollar todas las capacidades de la IA puede no ser conveniente para el futuro del ser humano. En este sentido, si conseguimos eliminar prejuicios y centramos en el "para qué" la usaremos previendo y analizando las posibles consecuencias antes de su uso, veremos previsiblemente un impacto muy positivo. Si, por el contrario, seguimos la inercia iniciada en la antigüedad, y extraemos todo su potencial, muy posiblemente lleguemos a perder el control. Esperemos que, si esto ocurre, hayamos logrado inculcar a las máquinas "la ética de los hombres buenos", no de los "malos".

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll