Cargando. Por favor, espere

Guipuzkoa presenta un código ético para la utilización de los datos y la inteligencia artificial

  • 30-5-2023 | LA LEY
  • Estos principios y prácticas orientarán las acciones relacionadas con el Plan Foral de Transformación Digital y con la buena gobernanza del dato y los algoritmos a través de los instrumentos y mecanismos que la Diputación Foral habilite a tal efecto.
Portada

Carlos B Fernández. La Diputación Foral de Guipuzkoa ha presentado un código ético para la utilización de los datos y la inteligencia artificial en el ámbito público.

Este Código establece un marco de principios éticos y de buenas prácticas que deberá ser observado por la Diputación Foral de Gipuzkoa y las entidades de su sector público en el desarrollo de las políticas relacionadas con el uso de datos masivos mediante algoritmos de Inteligencia Artificial.

En concreto, estos principios y prácticas orientarán las acciones relacionadas con el Plan Foral de Transformación Digital y con la buena gobernanza del dato y los algoritmos a través de los instrumentos y mecanismos que la Diputación Foral de Gipuzkoa habilite a tal efecto.

Este Código se inscribe dentro de la infraestructura ética que ha desarrollado la Diputación Foral de Gipuzkoa con su Sistema de Integridad Institucional a fin de afianzar la ética pública y la ejemplaridad como señas de identidad de la Institución, erradicando las malas prácticas y promoviendo una cultura de la integridad en el ejercicio de las funciones públicas por parte de todos sus responsables, empleados y entidades que participen en la provisión de servicios públicos forales.

Por ello, responde a la definición establecida en artículo 10 de la Norma Foral 4/2019, de 11 de marzo (LA LEY 3774/2019), de Buen Gobierno en el Marco de la Gobernanza Pública Foral y por tanto se considera una herramienta más del Sistema de Integridad Institucional de la Diputación Foral de Gipuzkoa y de su sector público en su condición de documento de autorregulación. Asimismo, responde a la estrategia foral de introducción de nuevas tecnologías de la información y la comunicación que tiene los siguientes objetivos (artículo 23 de la Norma Foral 4/2019, de 11 de marzo (LA LEY 3774/2019), de Buen Gobierno en el Marco de la Gobernanza Pública Foral): a) Simplificación y mejora de la eficacia y eficiencia de la Administración; b) Gestión inteligente y transparente de la información y los datos y, c) Modelo de relación digital con la ciudadanía que incorpore su visión desde el diseño.

Los principios y buenas prácticas formulados en este Código están alineados totalmente con el Sistema de Integridad Institucional, cuyos valores y principios son los que lo inspiran. Además, remiten a los compromisos asumidos por la Comunidad Autónoma del País Vasco dentro de la estrategia global OGP (Open Government Partnership), que plantea un sistema integral de ética pública y buen gobierno que comprende no solo la aplicación y desarrollo de códigos éticos y de conducta, sino también la implantación de un entramado de acciones (administrativas, participativas, de formación, analíticas y evaluativas) para elevar la calidad ética de la función pública en Euskadi y contribuir así a la generación de confianza pública en las instituciones y en el sistema democrático. Ese sistema se basa en tres principios éticos básicos (no maleficencia, respeto y buenas consecuencias) y otras tres estrategias de buena gobernanza (transparencia, implicación pública y monitorización).

Este Código se plantea, por tanto, como una herramienta proactiva para favorecer el buen uso, socialmente responsable y éticamente aceptable, de la ciencia de datos y la Inteligencia Artificial en la Administración Foral de Gipuzkoa, transitando hacia un modelo propositivo y no reactivo y defensivo con relación a estas tecnologías.

El Código remite, asimismo, al concepto de “buena administración”, que responde de modo eficiente y equitativo a las necesidades de los destinatarios de sus servicios y rindiendo cuentas con la sociedad. Hablamos, por tanto, del derecho a una buena administración digital.

Por todo ello, a través de los valores y buenas prácticas recogidos en este Código, la Diputación Foral de Gipuzkoa y su sector público fomentan la integridad y profesionalidad de su desempeño orientado al bien común y al servicio a la ciudadanía.

Este Código es un instrumento vivo que se irá revisando periódicamente y adecuando a las rápidas transformaciones tecnológicas que se experimentan en la digitalización (recuérdese la definición abierta de Inteligencia Artificial recogida en este documento, siguiendo el modelo de la Artificial Intelligence Act de la Comisión Europea). La actualización o revisión de los contenidos del Código será propuesta por el órgano de garantía y aprobada por la instancia competente.

Ámbito de aplicación

Este Código se aplicará a:

a) La Administración foral y su sector público foral, que se identifica con la Diputación foral y sus diferentes órganos, así como su personal.

b) Las entidades del sector público que integran el sector público foral:

− Organismos autónomos forales.

− Entidades públicas empresariales forales.

− Sociedades mercantiles forales.

− Fundaciones forales.

c) Las personas físicas y jurídicas adjudicatarias de contratos licitados por cualquier entidad integrante del sector público foral del territorio histórico de Gipuzkoa cuyas prestaciones impliquen el uso de datos mediante algoritmos de Inteligencia Artificial.

Principios éticos orientadores.

Este Código adopta un enfoque prudencial, abierto y flexible, sobre la base de 5 principios éticos orientadores de carácter general y 20 Recomendaciones de buenas prácticas.

Estos Principios y Recomendaciones sirven para situar las acciones concretas en el ámbito del uso de los datos y la Inteligencia Artificial y tienen un doble sentido: por un lado, adoptan un rol facilitador para promover el bienestar y desarrollo humanos en el horizonte de los Objetivos de Desarrollo Sostenible de las Naciones Unidas (ODS). Por otro lado, representan un papel limitador frente a los riesgos y abusos que pueden provocar estas tecnologías, como los delitos online y la ciberguerra.

Estos principios éticos son:

1. Minimizar los daños

Lo primero y fundamental es no dañar; es decir, el deber de no hacer daño, que abarca no sólo las acciones intencionadas sino también a la imposición de riesgos de daño (por lo que se aplican la precaución y la prevención; esto es, todas las cautelas posibles antes de la introducción de un sistema de Inteligencia Artificial).

Se considera tanto el posible daño relativo a los individuos como también a los colectivos, con especial atención a los individuos y grupos vulnerables y a los riegos existenciales o sistémicos.

Este principio implica la idea de seguridad (y ciberseguridad), entendida como un valor social que debe destacarse cuando los seres humanos interactúan con sistemas de decisión delegada como son los sistemas de Inteligencia Artificial.

Se prestará especial atención en evitar los sesgos, tanto en la recopilación de los datos, como en su manejo y en el entrenamiento de algoritmos e instrumentos de Inteligencia Artificial, poniendo especial cuidado en no reproducir o incrementar los sesgos y desigualdades sociales ya existentes. Se entiende por sesgo el prejuicio en nuestro modo de procesar la información, una tendencia a percibir de modo distorsionado la realidad, una predisposición. El sesgo es la propensión para beneficiar a un grupo y/o perjudicar a otro de manera injusta o éticamente inadmisible. La introducción de sesgos en las inteligencias artificiales da lugar a discriminación (por razón de género, raza, estatus económico, etc.) y puede consolidar prejuicios y estereotipos existentes, reforzando la exclusión social y la estratificación. Es lo que se conoce como “injusticia algorítmica”, que daña y perjudica a individuos y grupos.

2. Maximizar los beneficios

Los beneficios potenciales deben superar el posible riesgo para los sujetos, las comunidades y el medio ambiente. Esto se relaciona con la promoción del bienestar, el bien común y los Objetivos de Desarrollo Sostenible.

Los tratamientos de datos a través de la Inteligencia Artificial han de acreditar su necesidad, efectividad y orientación al bien común, acotando un propósito bien definido y determinado (proporcionalidad). Este principio de beneficencia incluye la protección del medio ambiente y de las generaciones futuras.

Para perseguir la sostenibilidad medioambiental y el compromiso con las generaciones futuras, el desarrollo de la tecnología y de los entornos digitales, entre ellos las infraestructuras vinculadas a la Inteligencia Artificial (nubes, centros de datos y de cálculo), se promoverá la eficiencia energética y de materias primas, favoreciendo la minimización del consumo de energía y materias, su extracción justa, el reciclado, y la utilización de energía renovable y limpia.

3. Autonomía

Los procesos de Inteligencia Artificial han de estar centrados en las personas y amparar el derecho de estas a conservar la facultad de decidir qué decisiones tomar y a ejercer la libertad de elegir cuando sea necesario. Los humanos han de preservar el poder de decidir en última instancia qué decisiones tomar y cuáles delegar en sistemas de datos e Inteligencia Artificial.

Los sistemas basados en Inteligencia Artificial pueden vigilar y modificar adaptativamente el cerebro, afectando al propio sentido de autonomía e identidad de las personas y, en última instancia, a la forma en que se ven a sí mismas y a sus relaciones con los demás. Sofisticados algoritmos y técnicas de Inteligencia Artificial se aplican a grandes cantidades de datos para encontrar patrones estadísticos recurrentes que pueden ser usados para predecir y entender el comportamiento de las personas (perfilado) y manipularlas neuroemocionalmente.

Por todo ello, se ha de proteger a los individuos contra el uso coercitivo de estas tecnologías y la posibilidad de que la tecnología pueda ser utilizada sin su consentimiento.

Por un lado, se protegerán los datos de carácter personal (privacidad) evitándose la re-identificación (los individuos pueden volverse identificables a partir de datos que, en primera instancia, son anónimos), la fuga de datos, la falta de transparencia en la recogida de datos y la elaboración de tipologías que pueden provocar discriminación de grupos. Por otro lado, se preservará la identidad personal y la continuidad del comportamiento personal frente a modificaciones no consensuadas por terceros (privacidad mental), en el marco de lo que se han llamado nuevos “neuroderechos humanos” protectores de la libertad cognitiva o autodeterminación mental: el derecho a la privacidad mental, el derecho a la integridad mental y el derecho a la continuidad psicológica.

4. Justicia

La justicia en el ámbito de ciencia y tecnología se refiere de manera central a dos cuestiones básicas: el reconocimiento y la forma de asignar los recursos escasos a las personas.

El reconocimiento (inclusividad) supone tener en cuenta a todos los interesados (la diversidad de agentes y valores) en el proceso. Como se señala desde los modelos de investigación e innovación responsables (RRI), en todas las etapas de los procesos de investigación e innovación tecnológica deben utilizarse metodologías inclusivas y participativas. Asimismo, quienes por libre deseo no accedan al entorno digital, no pueden ser excluidos del uso y desarrollo de bienes y servicios (principio de no-exclusión).

La asignación requiere la búsqueda de la igualdad y la accesibilidad (equidad). Se ha de evitar una nueva brecha de desigualdad a causa de la Inteligencia Artificial, sobre la ya existente brecha digital. El acceso al entorno digital no puede estar condicionado ni por la complejidad tecnológica, ni por la falta de recursos, ni por opciones que obliguen a las personas a convertirse en usuarios de empresas concretas. En consecuencia, se impulsarán los algoritmos abiertos y el conocimiento compartido para favorecer la solidaridad y la distribución de los beneficios de la tecnología.

5. explicabilidad

Dado que la ciencia de datos y la Inteligencia Artificial son tecnologías complejas que transforman la vida cotidiana de la población y afectan a ámbitos sensibles e importantes como la atención sanitaria, los derechos civiles y sociales, el crédito, los seguros, el Derecho penal, etc…

Estos procesos deben poder ser explicables. Esto significa que se puede comprender su funcionamiento (inteligibilidad) y que se puede identificar el proceso de decisión, las personas implicadas y las consecuencias que se deriven (rendición de cuentas). Más allá de la mera transparencia, se facilitará la comprensión e interpretabilidad de los sistemas de Inteligencia Artificial, evitando en lo posible la arbitrariedad de las “cajas negras” y actuando proactivamente para ofrecer información a la ciudadanía (deber de publicidad activa con respecto a los algoritmos).

Este principio complementa los anteriores: porque para que un sistema de Inteligencia Artificial tenga buenas consecuencias minimizando la posibilidad de daños, debemos ser capaces de entender el bien o el mal que se puede producir; para que un sistema promueva y no restrinja la autonomía, la “decisión sobre quién decide” debe estar informada mediante el conocimiento de cómo actuaría la Inteligencia Artificial en vez de nosotros; para que un sistema sea justo y alguien se haga cargo de los resultados negativos, es precisa la rendición de cuentas (trazabilidad) y la comprensión de porqué se han producido estos resultados. No obstante, puede haber sistemas de bajo riesgo donde la explicabilidad no sea factible (sistemas basados en redes neuronales artificiales – Deep Learning) donde la evaluación ética se ha de basar en la replicabilidad de los resultados tomando los mismos datos de entrada.

20 normas de actuación

Se trata de buenas prácticas derivadas de los principios éticos anteriormente formulados y que completan, junto con el cumplimiento legal y la robustez técnica, el marco para una Inteligencia Artificial confiable.

Estas buenas prácticas son aplicables tanto a los sistemas de Inteligencia Artificial de bajo riesgo, esto es, aquellos que ni usan datos personales ni hacen predicciones que afecten directa o indirectamente a los individuos, como a los sistemas de alto riesgo establecidos en la Artificial Intelligence Act de la Comisión Europea: empleo y gestión laboral, acceso a servicios esenciales y prestaciones, cumplimiento de la ley, control de fronteras, procesos democráticos, administración de justicia, asesoría educativa e infraestructuras críticas.

GENERALES

1. Implantar un Marco de Gobernanza institucional en la Diputación Foral de Gipuzkoa para los datos y proyectos basados en Inteligencia Artificial.

2. Establecer mecanismos robustos de ciberseguridad que permitan proteger la integridad de las bases de datos evitando las fugas de datos o el hackeo.

3. Fijar un mecanismo de supervisión humana (human-in-the-loop) que permita a una persona responsable tomar el control de las decisiones producidas por un algoritmo en cualquier fase del proceso de toma de decisiones. Esto incluye la capacidad de revertir las decisiones adoptadas de modo automático.

4. Definir garantías de procedimiento cuando se toman decisiones basadas en algoritmos, así como su motivación precisa.

5. Favorecer el uso de hardware y software sostenibles y eficientes energéticamente (algoritmos verdes), así como la reutilización de materiales y dispositivos electrónicos, una cultura de la reparación y la priorización de las energías renovables en los procesos de digitalización (economía digital circular).

6. Definir canales para la consulta y la retroalimentación del sistema por parte del conjunto de los empleados de la Administración foral y de la ciudadanía en general, estableciendo un registro público de algoritmos de la Administración. Los resultados arrojados por el algoritmo deben poder ser siempre cuestionables y reclamables por las personas y colectivos afectados, así como por el propio personal de la Administración, de manera rápida y fácilmente accesible. El sistema debe ofrecer una funcionalidad para lograr este propósito.

7. Comunicar interna y externamente los principios y buenas prácticas recogidos en este Código.

8. Promover la formación y sensibilización de la sociedad sobre el potencial de los datos para generar valor económico y social, destacando los ejemplos de éxito en este sentido. Esta necesaria pedagogía social impulsará el “empoderamiento tecnológico” de la ciudadanía.

9. Implementar mecanismos de revisión y de control periódicos.

10. Definir un Modelo de Evaluación de Impacto Ético de modo que todo proyecto, servicio o programa de la Diputación Foral de Gipuzkoa y de su sector público que implique el uso y la reutilización de datos mediante algoritmos de Inteligencia Artificial, deberá realizar un riguroso análisis previo sobre:

a. La calidad de las fuentes de los datos: representatividad, precisión, especificidad y pertinencia (para evitar sesgos);

b. El tratamiento algorítmico seguro y ético de los datos (para evitar discriminaciones y exclusiones);

c. El impacto social positivo y su contribución a la solidaridad y la inclusión;

d. La protección de los datos de carácter personal (con el cumplimiento estricto de la legislación vigente); y

e. La huella medioambiental del sistema. Este análisis será de conocimiento público.

ESPECÍFICAS

11. Descartar absolutamente el desarrollo de aplicaciones prohibidas en la Artificial Intelligence Act: sistemas biométricos en tiempo real, algoritmos de puntuación social y sistemas manipulativos (Deep Fakes).

12. Valorar previamente la necesidad y conveniencia de desarrollar una aplicación basada en datos e Inteligencia Artificial. Se ha de justificar de manera convincente la necesidad y pertinencia de utilizar un sistema de Inteligencia Artificial para el objetivo propuesto. Se establecerá un análisis coste-beneficio que incluya la posibilidad de alternativas por medios tradicionales y la conveniencia o no de delegar un determinado proceso o actividad en un sistema de Inteligencia Artificial, en función de su especial relación con derechos fundamentales de la persona.

13. Definir y documentar claramente los objetivos y alcance del sistema o aplicación (para qué), así como quién ha decidido su desarrollo (legitimidad).

14. Atender a los proxies o sustitutos generados por el algoritmo. Un proxy es una variable que sustituye a otras que no pueden utilizarse por razones operativas o legales. Por ejemplo, una base de datos puede no incluir información como la etnia, pero a través de datos como el código postal, el programa podría reconstruir esa información en el caso de que estos datos estén altamente correlacionados.

15. Garantizar que una representación de los interesados y usuarios participan en las distintas fases del ciclo de vida del proyecto (del diseño a la implantación) -mediante metodologías específicas: grupos de discusión, co-creación, metodología DELPHI, etc.-.

16. Documentar todos los pasos de diseño y evaluación para facilitar la auditoría de los sistemas de modo que se pueda detectar con mayor facilidad los sesgos que se hayan podido introducir y facilitar asimismo la rendición de cuentas.

17. Delimitar claramente el papel de la ciencia de datos y la Inteligencia Artificial en los procesos de acceso al empleo público y en las políticas de recursos humanos de la Diputación Foral de Gipuzkoa y su sector público.

18. Establecer espacios controlados de pruebas (sandboxes) para la Inteligencia Artificial que faciliten el desarrollo y la prueba de los sistemas innovadores bajo una estricta vigilancia regulatoria antes de su puesta en servicio.

19. Formular un plan de medidas para la mitigación de riesgos y de compensación de daños. Las personas o colectivos dañados como consecuencia de un mal funcionamiento del sistema deben recibir tratamiento y asistencia y también compensación.

20. Facilitar la explicación de los resultados que ofrece el sistema mediante una información sencilla, accesible y comprensible, disponible en los dos idiomas oficiales de la CAPV. Esta explicación no debe contener excesivos términos técnicos y debe clarificar, especialmente a los afectados, qué hace el sistema y cómo lo hace.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll