Cargando. Por favor, espere

La Ley 15/2022 introduce la primera regulación positiva de la inteligencia artificial en España

Fernández Hernández, Carlos

Diario La Ley, Nº 64, Sección Ciberderecho, 13 de Julio de 2022, LA LEY

LA LEY 4806/2022

Según esta nueva norma, las administraciones públicas que utilicen algoritmos para la toma de decisiones, favorecerán la puesta en marcha de mecanismos para que dichos algoritmos tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.

La Ley 15/2022, de 12 de julio (LA LEY 15917/2022), integral para la igualdad de trato y la no discriminación (BOE de 13 de julio), contiene la primera regulación positiva del uso de la inteligencia artificial por las administraciones públicas y las empresas en nuestro país.

Conviene subrayar de entrada que se trata de una regulación programática y en cierto modo voluntarista, que diseña unas grandes líneas de actuación de las administraciones públicas, con el objetivo de “favorecer”, “promover” y “priorizar” determinadas políticas y prácticas relacionadas con el uso de “algoritmos involucrados en la toma de decisiones”.

Con todo, se trata de la primera norma que en nuestro ordenamiento señala cómo deberán diseñar las Administraciones Públicas los algoritmos utilizados en esa toma de decisiones.

El contenido del precepto es el siguiente:

["Artículo 23. Inteligencia Artificial y mecanismos de toma de decisión automatizados.]

[1. En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales (LA LEY 16317/2021) y de las iniciativas europeas en torno a la Inteligencia Artificial, las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.]

[2. Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos.]

[3. Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido.]

[4. Se promoverá un sello de calidad de los algoritmos."]

El nuevo derecho antidiscriminatorio español

En primer lugar, cabe destacar que, según su exposición de motivos, esta ley “tiene la vocación de convertirse en el mínimo común normativo que contenga las definiciones fundamentales del derecho antidiscriminatorio español y, al mismo tiempo, albergue sus garantías básicas”.

En este sentido, se añade, “con esta ley se pretende dar respuesta a una necesidad normativa concreta: crear un instrumento eficaz contra toda discriminación que pueda sufrir cualquier persona y que aborde todos los ámbitos desde los que esta se pueda producir, acogiendo la concepción más moderna de los derechos humanos”.

Se trata, pues, no de “una Ley más de derechos sociales sino, sobre todo, de derecho antidiscriminatorio específico, que viene a dar cobertura a las discriminaciones que existen y a las que están por venir, ya que los desafíos de la igualdad cambian con la sociedad y, en consecuencia, también deberán hacerlo en el futuro las respuestas debidas”.

Por ello, ya en el número 1 de su artículo 3 (Ámbito objetivo de aplicación), establece que

[“Esta ley se aplicará en los siguientes ámbitos: …]

[o) Inteligencia Artificial y gestión masiva de datos, así como otras esferas de análoga significación.”]

El contexto regulatorio

Recordemos que ni la Ley Orgánica 3/2018 (LA LEY 19303/2018), de protección de datos personales y garantía de los derechos digitales, hace referencia alguna a esta tecnología en su Título X, dedicado a los derechos digitales; ni el Real Decreto 688/2021, de 3 de agosto (LA LEY 18033/2021), por el que se modifica el Reglamento general sobre procedimientos para la imposición de sanciones por infracciones de orden social y para los expedientes liquidatorios de cuotas de la Seguridad Social (al que añade un Título IX, en materia de procedimiento sancionador promovido por actuación administrativa automatizada en el ámbito de la Administración General del Estado); ni la Ley 12/2021, de 28 de septiembre (LA LEY 21294/2021), por la que se modifica el texto refundido de la Ley del Estatuto de los Trabajadores (LA LEY 16117/2015) para garantizar los derechos laborales de las personas dedicadas al reparto en el ámbito de plataformas digitales (conocida como Ley Riders), incluyen una regulación específica sobre las características que deben tener los algoritmos de IA, sino que se limitan a establecer la obligatoriedad de informar a los representantes de los trabajadores sobre “los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles” (Ley 12/2021).

Este artículo 23 se sitúa “en el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales (LA LEY 16317/2021) y de las iniciativas europeas en torno a la Inteligencia Artificial”, tres propuestas con un tema común pero muy diferentes enfoques y alcances.

Así, la Estrategia Nacional de Inteligencia Artificial, de noviembre de 2020, se orienta a siete objetivos estratégicos, como son la excelencia científica e innovación en IA; la creación de empleo cualificado; la transformación del tejido productivo; la creación de un entorno de confianza en relación a la IA; la incorporación de valores humanistas en la Inteligencia Artificial y el desarrollo de una Inteligencia Artificial inclusiva y sostenible, todo ello por medio de seis ejes estratégicos. Pero no aborda las características que deben tener estos algoritmos.

La Carta de Derechos Digitales, de julio de 2021, por su parte, como se señala en sus Consideraciones previas, tiene un objetivo “descriptivo, prospectivo y asertivo. Descriptivo de los contextos y escenarios digitales determinantes de conflictos, inesperados a veces, entre los derechos, valores y bienes de siempre, pero que exigen nueva ponderación …; prospectivo al anticipar futuros escenarios que pueden ya predecirse y asertivo en el sentido de revalidar y legitimar los principios, técnicas y políticas que, desde la cultura misma de los derechos fundamentales, deberían aplicarse en los entornos y espacios digitales presentes y futuros”. En este sentido, “la Carta no tiene carácter normativo, sino que su objetivo es reconocer los novísimos retos de aplicación e interpretación que la adaptación de los derechos al entorno digital plantea, así como sugerir principios y políticas referidas a ellos en el citado contexto”.

En concreto, en su apartado XXV, la Carta establece:

[“Derechos ante la inteligencia artificial]

[1. La inteligencia artificial deberá asegurar un enfoque centrado en la persona y su inalienable dignidad, perseguirá el bien común y asegurará cumplir con el principio de no maleficencia.]

[2. En el desarrollo y ciclo de vida de los sistemas de inteligencia artificial:]

[a) Se deberá garantizar el derecho a la no discriminación cualquiera que fuera su origen, causa o naturaleza, en relación con las decisiones, uso de datos y procesos basados en inteligencia artificial.]

[b) Se establecerán condiciones de transparencia, auditabilidad, explicabilidad, trazabilidad, supervisión humana y gobernanza. En todo caso, la información facilitada deberá ser accesible y comprensible.]

[c) Deberán garantizarse la accesibilidad, usabilidad y fiabilidad.]

[3. Las personas tienen derecho a solicitar una supervisión e intervención humana y a impugnar las decisiones automatizadas tomadas por sistemas de inteligencia artificial que produzcan efectos en su esfera personal y patrimonial.”]

Nótese que este apartado de la Carta tiene un contenido mucho más amplio que el del nuevo art. 23, que elude la referencia al enfoque centrado en la persona, la persecución del bien común y el aseguramiento del principio de no maleficencia.

El contenido de la norma parece ajustarse mejor a lo dispuesto en el número 2 de este apartado, en particular en cuanto a la garantía de no discriminación, y al establecimiento de condiciones de transparencia y explicabilidad. Sin embargo, no se mencionan la ni la trazabilidad ni, muy significativamente, la supervisión humana de las decisiones adoptadas por el sistema, ni tampoco el derecho a impugnar la decisión adoptada, aspectos todos ellos ausentes del artículo 23 de la Ley 15/2022 (LA LEY 15917/2022).

Por último, la propuesta de Reglamento Europeo de Inteligencia Artificial (AIA, por su abreviatura en inglés), presentada por la Comisión en abril de 2021, propone un marco reglamentario sobre IA con los objetivos de garantizar que los sistemas de IA introducidos y usados en el mercado de la UE sean seguros y respeten la legislación vigente en materia de derechos fundamentales y valores de la Unión; garantizar la seguridad jurídica para facilitar la inversión e innovación en IA; mejorar la gobernanza y la aplicación efectiva de la legislación vigente en materia de derechos fundamentales y los requisitos de seguridad aplicables a los sistemas de IA y facilitar el desarrollo de un mercado único para hacer un uso legal, seguro y fiable de las aplicaciones de IA y evitar la fragmentación del mercado”.

Según el art. 6 de esta propuesta y el Anexo III de la misma, se consideran sistemas de IA de alto riesgo y, por tanto, están sometidos a unos requisitos específicos para poder ser utilizados en el ámbito de la Unión Europea, los utilizados en a) la Identificación biométrica y categorización de personas físicas; b) la gestión y funcionamiento de infraestructuras esenciales (como la gestión y funcionamiento del tráfico rodado y el suministro de agua, gas, calefacción y electricidad, etc.); c) la educación y formación profesional; d) el empleo, gestión de los trabajadores y acceso al autoempleo; e) el acceso y disfrute de servicios públicos y privados esenciales y sus beneficios (como los sistemas de IA destinados a ser utilizados por las autoridades públicas o en su nombre para evaluar la admisibilidad de las personas físicas para acceder a prestaciones y servicios de asistencia pública, así como para conceder, reducir, retirar o recuperar dichas prestaciones y servicios; f) los utilizados por las fuerzas policiales o judiciales (como polígrafos y herramientas similares, los sistemas para la evaluación de la fiabilidad de las pruebas durante la investigación o el enjuiciamiento de infracciones penales o los utilizados para predecir la frecuencia o reiteración de una infracción penal real o potencial); g) la gestión de la migración, el asilo y el control fronterizo. Como puede apreciarse, muchas de estas tareas se realizan por las administraciones públicas, por lo que su utilización deberá estar sujeta a los requisitos establecidos por el Reglamento.

Contenido de la norma

a. Concepto de inteligencia artificial

La norma no incluye una definición de Inteligencia Artificial, ni realiza remisión alguna a ningún texto normativo nacional o internacional que la contenga.

Por ello, se pueden considerar diversas posibilidades, como la definición de sistemas de IA establecida por el Grupo de Expertos de Alto Nivel de la Comisión Europea, la definición de la OCDE, la definición de la propuesta de Reglamento de IA o la más recientemente propuesta por el Consejo Europeo, que plantea que, teniendo en cuenta la conectividad, la autonomía, la dependencia de los datos, la complejidad, la apertura y la opacidad de los nuevos sistemas de AI, el futuro Reglamento debería centrarse únicamente los sistemas con capacidad de aprendizaje (es decir, de machine learning, dejando en el ámbito de aplicación de la norma sólo el aprendizaje automático debería estar incluido en su ámbito de aplicación.

Hay que remitirse a la Estrategia Nacional de Inteligencia Artificial de 2020, para encontrar que el Gobierno de la nación entiende que “no existe aún una definición formal y universalmente aceptada de Inteligencia Artificial (IA)”, por lo que se remite a la definición formulada por el Grupo de Expertos de Alto Nivel de la Comisión Europea, que se refiere a la misma como aquellos “sistemas de software (y posiblemente también de hardware) diseñados por humanos que, ante un objetivo complejo, actúan en la dimensión física o digital: percibiendo su entorno, a través de la adquisición e interpretación de datos estructurados o no estructurados, razonando sobre el conocimiento, procesando la información derivada de estos datos y decidiendo las mejores acciones para lograr el objetivo dado. Los sistemas de IA pueden usar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento al analizar cómo el medio ambiente se ve afectado por sus acciones previas”.

b. Favorecer la puesta en marcha de mecanismos para que los algoritmos tengan en cuenta…

Según el nuevo precepto, cuando las administraciones utilicen algoritmos para la toma de decisiones, deberán favorecer que los mismos estén dotadas de unos mecanismos (no se indica de qué tipo), que tengan en cuenta criterios de:

  • Minimización de sesgos
  • Transparencia y
  • Rendición de cuentas

Todo ello, “siempre que sea factible técnicamente”

Estos mecanismos deberán incluir también el diseño de los sistemas algorítmicos y los datos de entrenamiento utilizados por el sistema, y respecto de ambos aspectos, se deberá abordar su potencial impacto discriminatorio, en particular mediante la realización de evaluaciones de impacto.

- Minimización de sesgos

En cuanto a la minimización de sesgos cabe subrayar que, pese a que los sesgos de los sistemas de AI son una de las amenazas más conocidas para su fiabilidad, como lo demuestra que la propuesta de AIA no incluye, sin embargo, una definición de los mismos.

Para encontrar una aproximación a lo que la propuesta de Reglamento considera datos no sesgados, hay que acudir a los números 2, 3, 4 y 5 de su artículo 10, relativo a los datos y gobernanza de datos de los sistemas de IA considerados de alto riesgo. En este precepto se precisa que los conjuntos de datos utilizados para el entrenamiento, la validación y prueba de estos sistemas deberán cumplir los criterios de calidad que se detallan en los citados apartados. Así, en el número 3 se detalla que los conjuntos de datos utilizados “serán pertinentes y representativos, carecerán de errores y estarán completos”, así como que “tendrán las propiedades estadísticas adecuadas”.

Dos interesantes documentos a este respecto son “Mitigating Bias in Artificial Intelligence” del IBM Policy Lab y “A Proposal for Identifying and Managing Bias in Artificial Intelligence” del Instituto Nacional de Normas y Tecnología de los Estados Unidos (National Institute for Standards and Technology, NIST).

- Transparencia

La transparencia de los sistemas algorítmicos, por su parte, se refiere tanto a la información sobre el hecho de que se está utilizando un algoritmo para la toma de decisiones, como el propósito de la herramienta en términos de para qué ha sido diseñada y para qué no; los beneficios clave que se espera que aporte la herramienta algorítmica, así como una justificación ampliada de por qué se utiliza la herramienta y los tipos de métodos o modelos que utiliza el algoritmo.

Muy recomendable a este respecto el documento de la Oficina Central de lo Digital y el Dato británica (Central Digital and Data Office, CDDO), “Algorithmic Transparency Standard”.

- Rendición de cuentas

La rendición de cuentas o accountability en inglés, se trata de una de las características principales de la considerada IA fiable, tal como fue descrita en las «Directrices Éticas para una IA fiable», presentadas el 8 de abril de 2019 por el Grupo de Expertos de Alto nivel de la Comisión EU.

Por su parte, el art. 17 de la propuesta de Reglamento de IA señala que el Sistema de gestión de la calidad exigido para los sistemas de IA considerados de alto riesgo, a fin de garantizar el cumplimiento del Reglamento, incluirá “m) un marco de rendición de cuentas que defina las responsabilidades del personal directivo y de otra índole en relación con todos los aspectos enumerados en este apartado”.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll