Cargando. Por favor, espere

Reino Unido presenta una propuesta de regulación de la IA

Fernández Hernández, Carlos

Diario La Ley, Nº 64, Sección Ciberderecho, 26 de Julio de 2022, LA LEY

LA LEY 5014/2022

Desde el clásico pragmatismo británico, el informe “Establishing a pro-innovation approach to regulating” AI plantea interesantes reflexiones sobre el concepto y alcance de la IA, e introduce que la obligación de la rendición de cuentas por los resultados producidos por la IA y la responsabilidad legal derivada de la misma, deben recaer siempre en una persona jurídica identificada o identificable, ya sea corporativa o natural.

El Reino Unido quiere disponer de un marco regulatorio para la Inteligencia Artificial (AI), que convierta al país en el lugar “más atractivo del mundo” para invertir e investigar en esta tecnología y aprovechar su enorme potencial, a la vez que permita proteger a sus ciudadanos de los riesgos inherentes a estas tecnologías, preservando los valores y derechos fundamentales del país.

Para ello, la Secretaría de Estado para lo digital (Secretary of State for Digital, Culture, Media and Sport) ha elaborado una iniciativa denominada Establishing a pro-innovation approach to regulating AI (Elaboración de una regulación de la IA desde un enfoque pro innovación), que, de llegar a convertirse en norma jurídica, constituirá una relevante novedad a nivel global.

Además de plantear interesantes reflexiones sobre el concepto y alcance de la IA, desde el clásico pragmatismo británico, la iniciativa introduce una relevante novedad en materia de responsabilidad por el uso de los sistemas inteligentes.

Se trata de establecer que "la obligación de la rendición de cuentas [accountability] por los resultados [dañosos] producidos por la IA y la responsabilidad legal derivada de la misma, deben recaer siempre en una persona jurídica identificada o identificable, ya sea corporativa o natural”.

Un planteamiento que viene a poner claridad sobre uno de los aspectos que han sido más criticados de la propuesta de Reglamento europeo sobre IA, en la que no se prevén mecanismos de atribución de responsabilidad y de herramientas para que los ciudadanos puedan ejercer sus derechos.

Desafíos clave

Desde el inicio, la propuesta explica los problemas que provoca la carencia de un marco regulatorio específicamente aplicable a la IA en el Reino Unido. Unos problemas fácilmente extrapolables a otros países, incluido el nuestro:

- Falta de claridad de la regulación: el actual marco regulatorio aplicable a la IA es ambiguo, ya que no se ha desarrollado teniendo en cuenta ni las características ni las aplicaciones de las tecnologías de la IA. Por ello, la aplicación de esa normativa al ámbito de la IA es a menudo una cuestión de interpretación, lo que hace que sea difícil manejarse por ella. Esto es especialmente un problema para las empresas más pequeñas que suelen carecer de asistencia jurídica adecuada.

- Solapamientos: Existe el riesgo de que las leyes y las competencias de los reguladores regulen la misma cuestión por el mismo motivo, lo que puede agravar esta falta de claridad. Esto podría dar lugar a niveles de regulación innecesarios, contradictorios o confusos cuando varios reguladores supervisen el uso que una organización hace de la misma IA con el mismo fin.

- Incongruencia: Existen diferencias entre las competencias de los reguladores para abordar el uso de la IA dentro de sus atribuciones, así como el grado en que han empezado a hacerlo. Por lo tanto, las tecnologías de IA utilizadas en diferentes sectores están sujetas a diferentes controles. Aunque en algunos casos esto tiene una justificación clara, puede agravar aún más la falta de claridad general.

- Lagunas normativas: Dado que la legislación actual no se ha desarrollado teniendo en cuenta la IA, puede haber riesgos que se estén abordando de forma inadecuada, y riesgos futuros asociados al uso generalizado de la IA para los que debemos estar preparados. Por ejemplo, en torno a la necesidad de mejorar la transparencia y la capacidad de explicación en relación con las decisiones tomadas por la IA, la seguridad y la solidez de los sistemas de IA y las responsabilidades de sus usuarios. También se aprecia una preocupación por que la IA amplifique riesgos sistémicos y sociales más amplios, por ejemplo, el impacto de la IA en el debate público y la democracia, con su capacidad para crear medios sintéticos como los deepfakes.

Estos problemas implican un riesgo de socavar la confianza de los consumidores, perjudicar la confianza de las empresas y, en última instancia, limitar el crecimiento y la innovación en todo el ecosistema de la IA, incluido el sector público.

Principios para la regulación de la IA

Este marco regulador se quiere apoyar en un conjunto de principios intersectoriales adaptados a las características específicas de la IA:

- Importancia del contexto. Se propone regular la IA en función de su uso y del impacto que tiene sobre las personas, los grupos y las empresas dentro de un contexto concreto, y delegar en los reguladores la responsabilidad de diseñar y aplicar respuestas normativas proporcionadas. Esto garantizará que el enfoque propuesto sea específico y apoye la innovación.

- Enfoque pro-innovación y basado en el riesgo. Se propone una regulación centrada en abordar cuestiones en las que haya pruebas claras de riesgo real u oportunidades perdidas. Para ello se pedirá a los reguladores que se centren en los problemas de alto riesgo en lugar de en los riesgos hipotéticos o bajos asociados a la IA. Se trata de fomentar la innovación y evitar poner barreras innecesarias en su camino.

- Coherencia. Se propone establecer un conjunto de principios intersectoriales adaptados a las distintas características de la IA, para lo que se pide a los reguladores que interpreten, prioricen y apliquen estos principios en sus sectores y ámbitos. Para lograr la coherencia y apoyar la innovación haciendo que el marco sea lo más fácil posible de navegar, se buscarán formas de apoyar y fomentar la coordinación reguladora, por ejemplo, trabajando estrechamente con el Foro de Cooperación en materia de Regulación Digital (DRCF) y otros reguladores y partes interesadas.

- Proporcionado y adaptable. Se proponen establecer unos principios intersectoriales sobre una base no reglamentaria en primera instancia para que el enfoque siga siendo adaptable, a la vez que se le mantiene bajo revisión. Por ello, además, se pedirá a los reguladores que consideren opciones más ligeras, como orientaciones o medidas voluntarias, en primera instancia. En la medida de lo posible, también intentaremos trabajar con los procesos existentes en lugar de crear otros nuevos.

El debatido concepto de IA

Uno de los aspectos más relevantes de la propuesta es la reflexión que realiza sobre el concepto de IA.

En este sentido, y por lo que al ámbito de ámbito de aplicación de la futura norma se refiere, se destaca que actualmente hay poco consenso sobre una definición general de la IA, tanto en la comunidad científica como en las organizaciones nacionales o internacionales.

La IA es una tecnología de uso general, como la electricidad, Internet o el motor de combustión. A medida que la IA evolucione, afectará a muchos ámbitos de la vida con implicaciones transformadoras, aunque el impacto preciso de esta tecnología variará mucho según su contexto y aplicación.

La UE ha basado su enfoque en la regulación de la seguridad de los productos en el mercado único y, como tal, ha establecido una definición relativamente fija en su propuesta de regulación de esta tecnología. Y aunque este enfoque puede apoyar los esfuerzos para armonizar las normas en varios países, no se considera que sea el adecuado para el Reino Unido, pues no capta todas las posibles aplicaciones de la IA y sus implicaciones normativas. Por ello se considera que esta falta de granularidad podría obstaculizar la innovación.

Un enfoque alternativo sería no poner límites a lo que constituye la IA, y dejar que los reguladores o los organismos pertinentes decidan qué tecnología y qué sistemas entran en el ámbito de aplicación de la norma, según su criterio. Aunque este enfoque ofrecería la máxima flexibilidad, plantea el riesgo de que las empresas y el público no tengan una visión coherente de lo que es y no es objeto de la futura regulación. Otro riesgo es que el ámbito de aplicación se defina a través de la jurisprudencia en ausencia de una definición, que puede variar según el sector, lo que podría aumentar la confusión.

Por lo tanto, los autores de la propuesta consideran que el enfoque más adecuado es establecer las características básicas de la IA para que estas informen el alcance del marco regulador de la IA, pero permitiendo que los reguladores establezcan y desarrollen definiciones más detalladas de la IA en función de sus ámbitos o sectores específicos.

Un enfoque que se estima que está en consonancia con la opinión del Gobierno del Reino Unido de que lo que se debe regular es el uso de la IA y no la tecnología en sí, por lo que no es necesaria una definición detallada de aplicación universal.

En cambio, al establecer estas características básicas, los desarrolladores y usuarios pueden tener una mayor certeza sobre el alcance y la naturaleza de las preocupaciones regulatorias del Reino Unido, al tiempo que se permite la flexibilidad --reconociendo que la IA puede tomar formas que no podemos definir fácilmente hoy en día—y que se apoya la coordinación y la coherencia.

Características fundamentales de la IA

La IA puede tener un número amplio de características y capacidades, dependiendo de las técnicas utilizadas y de las especificidades del caso de uso. Sin embargo, en lo que respecta a la regulación, se considera que hay dos características clave que subyacen a cuestiones normativas distintas que la regulación existente puede no estar totalmente preparada para abordar:

- La "adaptabilidad" de la tecnología: explicar la intención o la lógica

Los sistemas de IA suelen funcionar parcialmente sobre la base de instrucciones que no han sido programadas expresamente con intención humana, sino que han sido "aprendidas" sobre la base de una serie de técnicas.

Los sistemas de IA suelen ser "entrenados" --una única vez o como parte de un proceso contínuo-- con datos, y se ejecutan según patrones y conexiones que no son fácilmente perceptibles para los humanos. Esta capacidad le permite producir obras de arte increíblemente intrincadas a partir de la introducción de un párrafo de texto, diagnosticar enfermedades en exploraciones médicas que son imperceptibles para un humano, o completar elementos que faltan en textos antiguos.

A efectos normativos, esto significa que la lógica o la intención que subyace a los resultados de los sistemas puede ser a menudo muy difícil de explicar, o incluso que pueda reproducir errores y problemas no deseados de los datos de entrenamiento. Esto tiene implicaciones potencialmente graves, como cuando se toman decisiones relacionadas con la salud, los bienes o las perspectivas a largo plazo de una persona, o cuando se espera que una decisión sea justificable en términos fácilmente comprensibles, como en el caso de un litigio.

- La "autonomía" de la tecnología: asignar la responsabilidad de la acción

La otra característica relevante de la IA es que esta suele demostrar un alto grado de autonomía, operando en entornos dinámicos y en rápido movimiento mediante la automatización de tareas cognitivas complejas. Tanto si se trata de jugar a un videojuego como de navegar por la vía pública, esta capacidad de elaborar estrategias y reaccionar es lo que fundamentalmente hace que un sistema sea "inteligente", pero también significa que las decisiones pueden tomarse sin una intención expresa o sin el control permanente de un ser humano.

Aunque los sistemas de IA varían enormemente, se propone que sea esta combinación de características básicas la que exija una respuesta reguladora a medida e informe del alcance de nuestro enfoque para regular la IA.

Para garantizar que el sistema pueda captar las aplicaciones actuales y futuras de la IA, de una manera que siga siendo clara, se propone que el gobierno no establezca una definición de IA aplicable universalmente. En su lugar, se considera más eficaz establecer las características y capacidades básicas de la IA y orientar a los reguladores para que establezcan definiciones más detalladas a nivel de aplicación.

Un nuevo enfoque regulatorio a favor de la innovación

Dado que, a menudo, los efectos transformadores de la IA serán rápidos y, en ocasiones, inesperados, los autores de la propuesta consideran que es importante establecer un marco claro que prevea cómo responder a las oportunidades que plantea la IA, así como a los riesgos nuevos y acelerados que supone.

De esta manera, se espera que el Reino Unido pueda ofrecer una mayor claridad en cuanto a cómo se pretende impulsar el crecimiento al tiempo que se protegen la seguridad y valores fundamentales.

En concreto, para promover la innovación y apoyar el ecosistema británico de IA, el enfoque propuesto tendrá las características de:

- Ser específico del contexto: se reconoce que la IA es una tecnología dinámica y de propósito general y que los riesgos que se derivan de ella dependen principalmente del contexto de su aplicación.

Un enfoque basado en el contexto permite identificar y evaluar el riesgo relacionado con la IA a nivel de aplicación. Esto permitirá dar una respuesta específica y matizada al riesgo, ya que el regulador correspondiente puede evaluar el impacto real sobre los individuos y los grupos en un contexto concreto. Esto también permite que los ámbitos que tienen enfoques existentes y distintos de la regulación de la IA, como la defensa, sigan desarrollando mecanismos adecuados según el contexto. Apoyarse en nuestras estructuras reguladoras existentes también proporciona la flexibilidad necesaria para identificar y adaptarse en función de los riesgos emergentes, ya que es poco probable que los nuevos riesgos se desarrollen de forma coherente en toda la economía.

- Pro-innovación y basado en el riesgo: se propone a los reguladores que se centren en las aplicaciones de la IA que den lugar a niveles de riesgo reales, identificables e inaceptables, en lugar de tratar de imponer controles sobre los usos de la IA que supongan un riesgo bajo o hipotético, de modo que se evite ahogar la innovación

Se prevé que los reguladores establezcan criterios y umbrales basados en el riesgo a partir de los cuales entrarán en vigor los requisitos adicionales. Se tratará de garantizar que la proporcionalidad esté en el centro de la aplicación y el cumplimiento del marco, eliminando las obligaciones de cumplimiento administrativo onerosas o excesivas. También se tratará de garantizar que los reguladores tengan en cuenta la necesidad de apoyar la innovación y la competencia como parte de su enfoque de la aplicación y el cumplimiento del marco.

Los autores de la propuesta creen que esto es preferible a un marco único con una lista fija y central de riesgos y mitigaciones.

- Coherente: deben implantarse mecanismos para asegurar que el sistema sea sencillo, claro, predecible y estable.

- Proporcionado y adaptable: Se planteará a los reguladores que consideren opciones más ligeras, como orientaciones o medidas voluntarias, en primera instancia.

Principios intersectoriales para la regulación de la IA

Los principios intersectoriales propuestos se basan en los Principios de la OCDE sobre Inteligencia Artificial y demuestran el compromiso del Reino Unido con ellos. Estos principios proporcionarán una base clara para el futuro marco normativo, adaptado a los valores y ambiciones del Reino Unido, y se aplicarán dentro de los regímenes reguladores existentes. Los principios complementarán la reglamentación existente, con la finalidad de aumentar la claridad y reducir la fricción para las empresas que operan en el ciclo de vida de la IA.

Estos principios son:

- Garantizar el uso seguro de la IA

La amplitud de los usos de la IA puede incluir funciones que tengan un impacto significativo en la seguridad, y aunque este riesgo es más evidente en determinados sectores, como la sanidad o las infraestructuras críticas, existe la posibilidad de que se produzcan implicaciones de seguridad previamente imprevistas en otros ámbitos.

Por ello, aunque la seguridad será una consideración fundamental para algunos reguladores, será importante que todos ellos adopten un enfoque basado en el contexto para evaluar la probabilidad de que la IA pueda suponer un riesgo para la seguridad en su sector o ámbito, y adopten un enfoque proporcionado para gestionar este riesgo. Garantizar la seguridad en la IA requerirá nuevas formas de pensar y nuevos enfoques, aunque esperamos que los requisitos sigan siendo proporcionales al riesgo real, comparables a los casos de uso de la no IA.

- Garantizar que la IA sea técnicamente segura y funcione como está diseñada

La IA está aportando rápidamente nuevas capacidades en línea y reduciendo los costes de las funciones y procesos empresariales existentes. Garantizar que los consumidores y el público confíen en el buen funcionamiento de los sistemas es vital para asegurar que la investigación y la comercialización de la IA puedan continuar a buen ritmo.

Por ello, los sistemas de IA deben ser técnicamente seguros y, en condiciones normales de uso, deben hacer de forma fiable lo que pretenden y dicen hacer. Sujeto a consideraciones de contexto y proporcionalidad, el funcionamiento, la resistencia y la seguridad de un sistema deben ser probados y demostrados, y los datos utilizados en el entrenamiento y en el despliegue deben ser relevantes, de alta calidad, representativos y contextualizados.

- Asegurarse de que la IA es adecuadamente transparente y explicable

Lograr que los sistemas de IA sean explicables a nivel técnico sigue siendo un importante reto de investigación y desarrollo. Actualmente, la lógica y la toma de decisiones de los sistemas de IA no siempre pueden explicarse de forma inteligible, aunque en la mayoría de los casos esto no supone un riesgo sustancial. Sin embargo, en algunos contextos, el público, los consumidores y las empresas pueden esperar y beneficiarse de los requisitos de transparencia que mejoran la comprensión de la toma de decisiones de la IA. En algunas circunstancias de alto riesgo, los reguladores pueden considerar que las decisiones que no pueden explicarse deben prohibirse por completo, por ejemplo, en un tribunal donde se tiene derecho a impugnar la lógica de una acusación.

Teniendo en cuenta las consideraciones sobre la necesidad de proteger la información confidencial y los derechos de propiedad intelectual, los requisitos de transparencia podrían incluir la exigencia de proporcionar proactiva o retrospectivamente información relativa a: a) la naturaleza y la finalidad de la IA en cuestión, incluida la información relativa a cualquier resultado específico, b) los datos que se utilizan y la información relativa a los datos de entrenamiento, c) la lógica y el proceso utilizados y, en su caso, la información que permita explicar la toma de decisiones y los resultados, y d) la responsabilidad de la IA y de cualquier resultado específico.

- Integrar las consideraciones de equidad en la IA

En muchos contextos, los resultados del uso de la IA pueden tener un impacto significativo en la vida de las personas, por ejemplo, en los seguros, la puntuación de créditos o las solicitudes de empleo. Estos resultados de gran impacto -y los datos utilizados para alcanzarlos- deben ser justificables y no arbitrarios.

Para garantizar una regulación proporcionada y favorable a la innovación, será importante dejar que los reguladores sigan definiendo la equidad. Sin embargo, en cualquier sector o ámbito, se espera que reguladores: a) interpreten y articulen la "equidad" como algo relevante para su sector o ámbito; b) decidan en qué contextos y casos específicos la equidad es importante y relevante (lo que puede no ser siempre), y c) diseñar, aplicar y hacer cumplir los requisitos de gobernanza adecuados para la "imparcialidad" que se aplican a las entidades que regulan.

- Definir la responsabilidad de las personas jurídicas en la gobernanza de la IA

Los sistemas de IA pueden operar con un alto nivel de autonomía, tomando decisiones sobre cómo lograr un determinado objetivo o resultado de una manera que no ha sido explícitamente programada o incluso prevista, lo que puede plantear cuestiones secundarias y externalidades. Esto es, en última instancia, lo que los convierte en sistemas inteligentes.

Por lo tanto, la responsabilidad de los resultados producidos por la IA y la responsabilidad legal deben recaer siempre en una persona jurídica identificada o identificable, ya sea una empresa o una persona física.

- Aclarar las vías de recurso o impugnación

Los sistemas de IA pueden utilizarse de forma que puedan tener un impacto material en la vida de las personas, o en situaciones en las que las personas normalmente esperarían que el razonamiento que subyace a un resultado se estableciera claramente de forma que pudieran entenderlo e impugnarlo, por ejemplo, cuando sus derechos existentes se han visto afectados. El uso de la IA puede aumentar la velocidad, la capacidad y el acceso a los servicios, así como mejorar la calidad de los resultados. Sin embargo, también puede introducir riesgos, por ejemplo, que los datos de formación pertinentes reproduzcan sesgos u otros problemas de calidad en un resultado.

Por ello, y sujeto a consideraciones de contexto y proporcionalidad, el uso de la IA no debería eliminar la capacidad de un individuo o grupo afectado para impugnar un resultado. Por lo tanto, los reguladores deberán aplicar medidas proporcionadas para garantizar la impugnabilidad del resultado del uso de la IA en las situaciones reguladas pertinentes.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll