Cargando. Por favor, espere

La Casa Blanca presenta una propuesta de Declaración de Derechos ante la Inteligencia Artificial

  • 5-10-2022 | LA LEY
  • La propuesta se basa en un conjunto de cinco principios y prácticas asociadas a los mismos, destinados a servir de guía para el diseño, el uso y el despliegue de los sistemas automatizados, para proteger los derechos del público estadounidense en la era de la inteligencia artificial. Estos principios son el diseño de sistemas seguros y eficaces; la protección contra la discriminación algorítmica; la privacidad de los datos; la información y la explicabilidad y la intervención humana, con posibilidad de vuelta atrás.
Portada

Carlos B Fernández. La Oficina de Política Científica y Tecnológica (Office of Science and Technology Policy, OSTP) de la Presidencia de los Estados Unidos, presentó el pasado 4 de octubre una propuesta de Declaración de Derechos ante la Inteligencia Artificial, subtitulada "Haciendo que los sistemas automatizados trabajen para el pueblo americano" (Blueprint for an AI Bill of Rights – Making automated systems work for the American People).

Esta propuesta parte de una iniciativa puesta en marcha a finales de 2021 , cuando, en octubre de ese año, la OSTP inició un procedimiento de consulta pública, para recabar aportaciones de las agencias gubernamentales, el mundo académico y la industria sobre las posibles medidas a adoptar para que las compañías tecnologías respeten los valores democráticos, en particular el de igualdad y equidad de trato.

Según explica la Casa Blanca, la propuesta para una Declaración de Derechos de la IA se basa en un conjunto de cinco principios y prácticas asociadas a los mismos, destinados a servir de guía para el diseño, el uso y el despliegue de los sistemas automatizados, para proteger los derechos del público estadounidense en la era de la inteligencia artificial.

Estos cinco principios son el diseño de sistemas seguros y eficaces; la protección contra la discriminación algorítmica; la privacidad de los datos; la información y la explicabilidad y la intervención humana, con posibilidad de vuelta atrás.

Como veremos más adelante, el contenido de esta propuesta de principios incluye enfoques y objetivos que serán muy familiares al lector europeo familiarizados con el Reglamento General de Protección de Datos (LA LEY 6637/2016), la propuesta de Reglamento sobre Inteligencia Artificial y otras normas o propuestas de normas recientemente impulsadas por la Unión Europea, incluida, también, nuestra Carta de Derechos Digitales (LA LEY 16317/2021).

El Plan para una Carta de Derechos de la IA incluye un prólogo, los cinco principios, notas sobre la aplicación del Plan para una Carta de Derechos de la IA, y un manual denominado “De los principios a la práctica”, que ofrece medidas concretas que pueden adoptar muchos tipos de organizaciones -desde gobiernos a todos los niveles hasta empresas de todos los tamaños- para defender estos valores.

Este documento From Principles to Practice (De los principios a la práctica), constituye un manual para cualquiera que desee incorporar estos principios en sus políticas y práctica profesional o empresarial, pues incluye pasos detallados para implementarlos en el proceso de diseño tecnológico, de forma que orienten a los sistemas automatizados que puedan tener un impacto significativo en los derechos, las oportunidades o el acceso del público a las necesidades críticas.

Los cinco principios de la Declaración

Desarrollados a través de una amplia consulta con el público estadounidense, estos principios constituyen un plan para construir y desplegar sistemas automatizados de toma de decisiones, que estén alineados con los valores democráticos y protejan los derechos y las libertades civiles y la privacidad de los ciudadanos.

Aunque la propuesta reconoce que existen numerosas declaraciones de principios y directrices para guiar el uso responsable de los sistemas automatizados, sus impulsores consideran que el propuesto proporciona una declaración de valores de alcance nacional en los Estados Unidos y un conjunto de herramientas independiente para informar sobre la incorporación de estas protecciones en la política, la práctica o el proceso de diseño tecnológico. Así, en los casos en los que la legislación o la política existentes --como las leyes de privacidad aplicables o los requisitos de supervisión específicos de cada sector-- no proporcionen ya una orientación, el Plan debería utilizarse para informar de las decisiones políticas.

El contenido más relevante de estos principios es el siguiente:

1. Sistemas seguros y eficaces

Los sistemas automatizados deben desarrollarse consultando a diversas comunidades, partes interesadas y expertos en la materia, para identificar las preocupaciones, los riesgos y los posibles impactos del sistema.

Los sistemas deben someterse a pruebas previas al despliegue, a la identificación y mitigación de riesgos y a una supervisión continua que demuestre que son seguros y eficaces en función de su uso previsto. Los resultados de estas medidas de protección deben incluir la posibilidad de no desplegar el sistema o de retirarlo del uso.

Los sistemas automatizados no deben diseñarse con la intención o la posibilidad razonablemente previsible de poner en peligro la seguridad de los ciudadanos o la de su comunidad. Deben diseñarse para protegerles de forma proactiva de los daños derivados de usos o impactos no deseados, aunque previsibles, de los sistemas automatizados. Esta protección frente al uso inapropiado alcanza el uso irrelevante de los datos en el diseño, el desarrollo y la implantación de los sistemas automatizados, así como frente a los daños agravados por su reutilización.

Igualmente deben realizarse evaluaciones e informes independientes que confirmen que el sistema es seguro y eficaz, incluyendo la notificación de las medidas adoptadas para mitigar los posibles daños, y los resultados deben hacerse públicos siempre que sea posible.

2. Protección contra la discriminación algorítmica

Los algoritmos no deben discriminar a los ciudadanos y los sistemas deben utilizarse y diseñarse de forma equitativa.

La discriminación algorítmica se produce cuando los sistemas automatizados contribuyen a dar un trato diferente injustificado o a perjudicar a las personas en función de su raza, color, etnia, sexo (incluidos el embarazo, el parto y las condiciones médicas relacionadas, la identidad de género, la condición de intersexualidad y la orientación sexual), religión, edad, origen nacional, discapacidad, condición de veterano, información genética o cualquier otra clasificación protegida por la ley.

Los diseñadores, desarrolladores e implantadores de sistemas automatizados deben adoptar medidas proactivas y continuas para proteger a las personas y comunidades de la discriminación algorítmica, y para utilizar y diseñar los sistemas de forma equitativa. Esta protección debe incluir evaluaciones proactivas de la equidad como parte del diseño del sistema; el uso de datos representativos y la protección contra los sustitutos de las características demográficas; la garantía de la accesibilidad para las personas con discapacidades en el diseño y el desarrollo; las pruebas y la mitigación de las disparidades antes del despliegue y de forma continua, y una clara supervisión organizativa.

Siempre que sea posible, debe realizarse una evaluación independiente y un informe en lenguaje sencillo en forma de evaluación del impacto del algoritmo, que incluya los resultados de las pruebas de disparidad y la información de mitigación, para confirmar estas protecciones.

3. Privacidad de los datos

Los ciudadanos deben estar protegidos frente a las prácticas abusivas relacionadas con sus datos y deben tener la capacidad de decidir cómo se utilizan los mismos.

Se les debe proteger de las violaciones de la privacidad mediante opciones de diseño que garanticen que dichas protecciones se incluyan por defecto, incluyendo la garantía de que la recopilación de datos se ajuste a las expectativas razonables y que sólo se recopilen los datos estrictamente necesarios para el contexto específico en que vayan a tratarse.

Los diseñadores, desarrolladores e implantadores de sistemas automatizados deben solicitar el permiso de los interesados y respetar sus decisiones en cuanto a la recogida, uso, acceso, transferencia y eliminación de sus datos de forma adecuada y en la mayor medida posible; cuando no sea posible, deben utilizarse salvaguardias alternativas de privacidad por diseño.

Los sistemas no deben emplear la experiencia del usuario y las decisiones de diseño que ofuscan la elección del usuario o cargan a los usuarios con valores predeterminados que invadan su privacidad.

El consentimiento sólo debe utilizarse para justificar la recogida de datos en los casos en los que pueda otorgarse de forma adecuada y significativa. Las solicitudes de consentimiento deben ser breves, comprensibles en un lenguaje sencillo, y dar al usuario la capacidad de decidir sobre la recogida de sus datos y el contexto específico de uso de los mismos. En esta línea, deben modificarse las actuales prácticas de notificación sobre amplio uso de datos, difíciles de entender.

Las protecciones y restricciones mejoradas para los datos y las inferencias relacionadas con ámbitos sensibles, como la salud, el trabajo, la educación, la justicia penal y las finanzas, y para los datos relativos a los jóvenes, deberían ponerse en primer lugar.

En los ámbitos sensibles, los datos e inferencias relacionadas con los mismos sólo deberían utilizarse para las funciones necesarias.

Los ciudadanos y las comunidades deben estar libres de una vigilancia incontrolada. Las tecnologías de vigilancia deben estar sujetas a una mayor supervisión que incluya, al menos, una evaluación previa al despliegue sobre los potenciales daños que las mismas pueden causar, así como de los límites de su alcance, para proteger la privacidad y las libertades civiles. La vigilancia y el control continuos no deben utilizarse en la educación, el trabajo, la vivienda o en otros contextos en los que el uso de estas tecnologías de vigilancia pueda limitar los derechos, las oportunidades o el acceso a los servicios de los ciudadanos.

Siempre que sea posible, los ciudadanos deben tener acceso a informes que confirmen que se han respetado sus decisiones en materia de datos y que proporcionen una evaluación del impacto potencial de las tecnologías de vigilancia sobre sus derechos, oportunidades o posibilidades de acceso.

4. Información y explicabilidad

El usuario debe saber que, en relación con una cuestión o asunto de su interés, se utiliza un sistema automatizado, y comprender cómo y por qué el mismo contribuye a los resultados que le afectan.

En este sentido, los diseñadores, desarrolladores e implantadores de sistemas automatizados deben proporcionar una documentación en lenguaje sencillo y generalmente accesible, que incluya descripciones claras del funcionamiento general del sistema y del papel que en el mismo desempeña la automatización; un aviso de que dichos sistemas están en uso; la persona u organización responsable del sistema y unas explicaciones sobre los resultados que sean claras, oportunas y accesibles. Estos avisos deben mantenerse actualizados y las personas afectadas por el sistema deben ser notificadas de los cambios significativos en los casos de uso o en las funcionalidades clave.

El usuario debe saber cómo y por qué un resultado que le afecta ha sido determinado por un sistema automatizado, incluso cuando este no sea el único que determine el resultado. Además, los sistemas automatizados deben proporcionar explicaciones que sean técnicamente válidas, significativas y útiles, tanto para el interesado como para cualquier operador u otras personas que necesiten entender el sistema. Estas explicaciones deberán estar ajustadas a la determinación de un nivel de riesgo basado en el contexto.

Siempre que sea posible, deben publicarse informes que incluyan información resumida sobre estos sistemas automatizados en un lenguaje sencillo, así como una evaluación de la claridad y la calidad del aviso y las explicaciones.

5. Intervención humana, con posibilidad de vuelta atrás

Los ciudadanos deben poder optar por no verse afectados por un sistema automatizado de toma de decisiones, cuando ello sea apropiado, así como tener acceso a una persona que pueda considerar y remediar rápidamente los problemas que encuentre.

La idoneidad debe determinarse en función de las expectativas razonables en un contexto determinado y centrarse en garantizar una amplia accesibilidad y proteger al público de impactos especialmente perjudiciales.

En algunos casos, la ley puede exigir una alternativa humana o de otro tipo.

Los ciudadanos deben tener acceso a una consideración humana oportuna y a una solución mediante un proceso de retroceso y escalada si un sistema automatizado falla, genera un error o el ciudadano desea apelar o impugnar su impacto. La consideración humana y el acceso al remedio deben ser accesibles, equitativos, efectivos, mantenidos, acompañados de una formación adecuada de los operadores, y no deben imponer una carga irrazonable al público.

Los sistemas automatizados con un uso previsto en ámbitos sensibles, incluidos, entre otros, la justicia penal, el empleo, la educación y la sanidad, deben además estar adaptados al propósito, proporcionar un acceso significativo para la supervisión, incluir la formación de cualquier persona que interactúe con el sistema e incorporar la consideración humana para las decisiones adversas o de alto riesgo.

Siempre que sea posible, deben hacerse públicos los informes que incluyan una descripción de estos procesos de gobernanza humana y una evaluación de su oportunidad, accesibilidad, resultados y eficacia.

Aplicación del plan

Aunque muchas de las preocupaciones que se abordan en este marco se derivan del uso de la IA, las capacidades técnicas y las definiciones específicas de estos sistemas cambian con la velocidad de la innovación, y los daños potenciales de su uso se producen incluso con herramientas menos sofisticadas tecnológicamente.

Por ello, este marco utiliza una prueba de dos partes para determinar qué sistemas están en el ámbito de aplicación. Este marco se aplica a (1) los sistemas automatizados que (2) tienen el potencial de afectar significativamente a los derechos, las oportunidades o el acceso del público estadounidense a recursos o servicios críticos. Estos derechos, oportunidades y acceso a recursos o servicios críticos deben disfrutarse por igual y estar plenamente protegidos, independientemente del papel cambiante que los sistemas automatizados puedan desempeñar en nuestras vidas.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll