Cargando. Por favor, espere

Empleo de la inteligencia artificial en el ámbito laboral. Riesgos éticos y posibles soluciones

  • 5-8-2022 | LA LEY
  • Según el informe “Using Artificial Intelligence in the workplace: What are the main ethical risks?”, elaborado por un grupo de expertos para la OCDE, el uso fiable de la IA en el lugar de trabajo implica reconocer y abordar los riesgos que esta tecnología puede plantear en materia de derechos humanos, como la privacidad, la equidad, la autonomía y la dignidad, al igual que en cuanto a transparencia y explicabilidad; robustez, fiabilidad y seguridad y responsabilidad. Por ello, la base del desarrollo normativo sobre este tema debe basarse en la aplicación y el refuerzo de la actual normativa, contando con la aplicación específica de medidas a nivel de empresa y el lugar de trabajo.
Noticias relacionadas
Ir a Noticia Los cuatro principios que debe cumplir una Inteligencia Artificial explicable
Ir a Noticia Las empresas deberán informar al comité de empresa de la lógica de los algoritmos que afecten a los trabajadores
Ir a Noticia La Comisión Europea presenta su propuesta de Reglamento sobre la Inteligencia Artificial
Ir a Noticia La OCDE aprueba unos principios para el desarrollo de la Inteligencia Artificial
Ir a Noticia Se presenta en los Estados Unidos un proyecto de Ley de responsabilidad algorítmica (Algorithmic Accountability Act)
Portada

Carlos B Fernández. El uso de sistemas de Inteligencia Artificial (IA) en el ámbito empresarial no es trivial y muestra una tendencia al alza. Así lo reflejan los datos de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), que reflejan que, a finales de 2020, el sector de los procesos de negocio y los servicios de apoyo a los mismos era el tercer sector en cuanto a volumen de financiación por los fondos venture capital, detrás de los vehículos autónomos y la salud.

En este contexto, está generalmente aceptado que los sistemas de IA tienen el potencial de mejorar los lugares de trabajo. Pero, a la vez, garantizar un uso fiable de la IA en estos entornos significa abordar los riesgos éticos que puede plantear el uso de esa tecnología. En particular, este análisis implica considerar los posibles riesgos en términos de derechos humanos (privacidad, equidad, transparencia y capacidad de explicación, solidez, seguridad y rendición de cuentas y responsabilidad).

Y este es el objetivo del informe “Using Artificial Intelligence in the workplace: What are the main ethical risks?” (Uso de la Inteligencia Artificial en el trabajo: ¿Cuáles son los principales riesgos éticos?), elaborado para la Dirección General de Empleo, Trabajo y Asuntos Sociales de la OCDE por Angelica Salvi Del Pero, Peter Wyckoff y Ann Vourch.

El informe parte del dato contrastado de que los sistemas de Inteligencia Artificial (IA) pueden procesar grandes y variadas cantidades de datos de forma rápida y automática, ayudando así a los humanos en la toma de decisiones. Estas dos capacidades ofrecen inmensas oportunidades para mejorar los lugares de trabajo: por ejemplo, para mejorar la eficiencia, la equidad y la seguridad de los trabajadores. Sin embargo, el uso de sistemas de IA en el lugar de trabajo también plantea problemas éticos. Como puso de manifiesto el informe de McKinsey sobre el estado de la IA en 2021 (The state of AI in 2021 Survey), el 44% de los encuestados en las economías avanzadas expresaron su preocupación sobre la explicabilidad de la IA en el trabajo; el 41% se mostró preocupado por la privacidad, y el 30% por la equidad y la justicia de las decisiones adoptadas con ayuda de estos sistemas.

Por ello, para ayudar a los responsables políticos y a otras partes interesadas a garantizar un uso ético de la IA en el lugar de trabajo, este documento identifica los principios básicos de fiabilidad que deben mantener los sistemas de IA, aplicando el marco de clasificación de los Principios de IA de la OCDE.

El documento adopta una perspectiva de gestión de riesgos con el objetivo de identificar y prevenir posibles daños derivados del uso de sistemas inteligentes. Por lo tanto, se centra en catalogar los posibles riesgos potenciales más que en las oportunidades que ofrece la IA en el lugar de trabajo.

Con carácter general, el informe destaca que la legislación vigente en materia de antidiscriminación, protección de datos, prácticas engañosas y las garantías procesales debe aplicarse eficazmente cuando se utilizan sistemas de IA en el lugar de trabajo, y debe servir de base para nueva política. Además, las iniciativas en curso de la economía y la sociedad sobre la IA, como la Ley de IA de la UE y el establecimiento de normas específicas, también pueden contribuir a un uso fiable de la IA en el lugar de trabajo. Por último, el documento examina las nuevas políticas y convenios colectivos que se están utilizando para promover una IA digna de confianza.

En sus dos grandes líneas, el informe destaca:

1. El uso fiable de la IA en el lugar de trabajo implica reconocer y abordar los riesgos que esta tecnología puede plantear en materia de derechos humanos (entre ellos, la privacidad, la equidad, la autonomía y la dignidad) y de transparencia y explicabilidad; robustez, fiabilidad y seguridad y responsabilidad.

A este respecto se destaca que:

- La capacidad de la IA para hacer predicciones y procesar datos no estructurados está transformando y ampliando la vigilancia en el lugar de trabajo.

En particular, la naturaleza de los datos que pueden recopilarse y procesarse por estos medios suscita preocupación, ya que puede permitir relacionar datos fisiológicos y de interacción social sensibles.

- La formalización de reglas para los procesos de gestión mediante sistemas de IA puede mejorar la equidad en el trabajo, pero los sistemas de IA pueden multiplicar y sistematizar los sesgos humanos existentes.

En este sentido se considera que la recopilación y conservación de datos de alta calidad es un elemento clave para evaluar y mitigar potencialmente esos sesgos, aunque, a la vez, pero plantea algunas cuestiones en relación con el respeto de la privacidad.

- Confiar sistemáticamente en la toma de decisiones informadas por la IA en el lugar de trabajo puede reducir la autonomía y la capacidad de acción de los trabajadores.

Esto puede reducir la creatividad y la innovación, especialmente si la contratación basada en la IA provoca una estandarización de los perfiles de los trabajadores. Sin embargo, se estima también que el uso de sistemas de IA en el trabajo podría liberar tiempo para que los trabajadores pudieran emplearlo en tareas más creativas e interesantes.

- En cuanto al empleo de sistemas de IA para los procesos de selección, el informe advierte de que, con frecuencia, los solicitantes de empleo y los trabajadores pueden no ser conscientes del uso de esos sistemas que les afectan, e incluso, si lo son pueden, no estar en condiciones de rechazar su uso. Unas cuestiones que plantean problemas de transparencia y obtención del consentimiento.

- En cuanto al uso de la IA en el trabajo, no suelen ofrecerse explicaciones comprensibles sobre las decisiones de empleo que afectan a los trabajadores adoptadas con base a dicha tecnología.

Por ello, la mejora de las herramientas técnicas de transparencia y explicabilidad ayudaría a mejorar la situación, aunque muchos proveedores de sistemas son reacios a poner a disposición de los usuarios el código fuente o los algoritmos patentados. Sin embargo, se considera que esa mejora de la transparencia y la explicabilidad de los sistemas de IA en el lugar de trabajo tiene el potencial de proporcionar explicaciones más útiles a los trabajadores que los sistemas tradicionales utilizados.

- El uso de sistemas de IA planea problemas a los trabajadores para oponerse o impugnar las decisiones adoptadas con base en los mismos que les afectan.

Esto está relacionado con la falta de explicaciones sobre la fundamentación de las decisiones adoptadas, pero también con la falta de derechos de acceso a los datos utilizados para tomar decisiones, lo que dificulta su impugnación. Una situación que afecta en particular a los trabajadores con contrato temporal y a los de plataformas.

- Los sistemas de IA ofrecen muchas oportunidades para reforzar la seguridad física y el bienestar de los trabajadores, pero también presentan algunos riesgos.

En particular, el aumento de los riesgos de seguridad digital y el ejercicio de una presión excesiva sobre los trabajadores. También puede ser más difícil anticipar las acciones de los robots basados en la IA debido a su mayor movilidad y autonomía en la toma de decisiones.

- Decidir quién debe ser considerado responsable en caso de que el sistema provoque un daño no es sencillo.

En este sentido se considera que contar con la intervención humana en el proceso (human in the loop) puede ayudar a la determinación de responsabilidad, pero todavía no está claro qué decisiones laborales requieren este nivel de supervisión.

- Las auditorías de los sistemas de IA en el lugar de trabajo pueden mejorar la atribución responsabilidad si se hacen con cuidado.

Los posibles requisitos para que dichas auditorías sean consideradas adecuadas incluyen la independencia del auditor; el análisis representativo; el acceso a los datos, el código y el modelo y la consideración de acciones antagonistas.

2. La base del desarrollo normativo sobre este tema debe basarse en la aplicación y el refuerzo de la actual normativa, contando con la aplicación específica de medidas a nivel de empresa y el lugar de trabajo sobre el uso de la IA en esos entornos específicos.

A la vista del anterior análisis, el informe analiza las posibles medidas de política normativa aplicables. Y a este respecto el informe destaca que:

- La dependencia de los sistemas de IA en el lugar de trabajo de los datos puede ponerlos en conflicto con la actual normativa sobre protección de, datos.

Por ejemplo, el contenido del artículo 22 del Reglamento General de Protección de Datos (LA LEY 6637/2016) exige a las empresas que revelen los datos utilizados en sus sistemas de IA, o que reincorporen a las personas despedidas únicamente sobre la base de una decisión adoptada por los algoritmos.

- Debe tenerse en cuenta la legislación laboral contra la discriminación para hacer frente a algunas cuestiones problemáticas sobre los sesgos de la IA en el lugar de trabajo.

A este respecto se señala que varios países de la OCDE disponen de una serie de leyes que ayudan a proteger a los trabajadores de la discriminación. Esta normativa suele responsabilizar a los empleadores de evitar la discriminación, independientemente de la tecnología (incluida la IA) que se utilice. Sin embargo, se han observado algunas dificultades en la aplicación de la legislación antidiscriminatoria existente a los casos de IA. Por ejemplo, los demandantes pueden encontrar dificultades a la hora de probar "los motivos o la intención discriminatoria" de un algoritmo o de superar la defensa de las "necesidades empresariales" de un empleador cuando el funcionamiento de un algoritmo sigue siendo desconocido.

- La normativa sobre competencia desleal y proteccióndel consumidor se está utilizando para exigir más transparencia por parte de las empresas sobre el funcionamiento de los algoritmos en el lugar de trabajo, y exige a los desarrolladores que cumplan los estándares éticos que anuncian sobre sus productos.

- El derecho de los trabajadores a un juicio justo sobre las decisiones laborales puede utilizarse para exigir una mayor transparencia y la necesidad de dar explicaciones sobre el uso y el funcionamiento de los sistemas algorítmicos utilizados en el lugar de trabajo.

- Varios países de la OCDE están estudiando propuestas legislativas de alcance general sobre la IA, que también se pueden aplicar al lugar de trabajo, ya sea en forma de estrategias nacionales o de propuestas de prácticas autorregulatorias no vinculantes.

Un ejemplo notable es la propuesta de Reglamento sobre IA de la UE, que clasificaría algunos sistemas de IA utilizados en el empleo como de "riesgo inaceptable" y por tanto, prohibiría (por ejemplo, los sistemas considerados manipuladores de los individuos) y el resto como de "alto riesgo”. Esta consideración los sometería a unos estrictos requisitos legales relacionados con la protección de datos, transparencia, supervisión humana y solidez, entre otros.

Por su parte, los Estados Unidos han presentado varias propuestas legislativas sobre la IA en el Congreso, pero no han adoptado un enfoque horizontal de base amplia para la regulación de la IA, similar al propuesto por la Comisión Europea. Y si bien el Congreso está considerando una Ley de Responsabilidad Algorítmica que introduciría evaluaciones de impacto obligatorias para el uso de la IA, el proyecto de ley, presentado en 2019, no ha experimentado progresos significativos desde su presentación.

- El establecimiento de estándares nacionales o internacionales, junto con otros enfoques de autorregulación, puede proporcionar parámetros técnicos para que los sistemas de IA sean dignos de confianza y, en particular, para su uso en el lugar de trabajo.

Así, algunas compañías, como SAP, han establecido sus propios principios sobre el uso de la IA en el trabajo, y algunos sindicatos han preparado directrices, principios éticos e informes en relación con las preocupaciones que plantea el uso de la IA en el trabajo, ofreciendo alternativas al respecto. En particular, sindicatos de las empresas desarrolladoras de IA han diseñado sus propios principios para un uso más confiable de la IA.

- Fuera del ámbito europeo, otros países, han desarrollado iniciativas para regular el uso de la IA en el trabajo.

Así, los estados norteamericanos de Illinois y Maryland ya exigen el consentimiento del candidato para el uso de herramientas de reconocimiento facial en los procesos de contratación. Por su parte, el Ayuntamiento de Nueva York exige la realización de auditorías anuales de sesgo algorítmico para las "herramientas automatizadas de decisión en materia de empleo".

- En cuanto al alcance de la negociación colectiva en este ámbito, el informe destaca la reforma llevada a cabo en España por la conocida como ley de riders (LA LEY 21294/2021), que obliga a la transparencia de los sistemas de IA que afectan a las condiciones de trabajo o a la situación laboral.

Pero, como han señalado varios autores, esta ley difiere en dos aspectos clave de las previsiones existentes en el RGPD: en términos de derechos de consulta, que ahora son colectivos, a nivel sindical, en lugar de individuales, y en el ámbito de aplicación, que también afecta a los algoritmos que simplemente ayudan a la toma de decisiones humanas, en vez de ser los que fundamente en exclusiva la toma de decisiones.

La necesaria capacitación de empresarios, trabajadores y sindicatos sobre el uso de la IA

En conclusión, el informe destaca que la acción política será importante para lograr un uso fiable de la IA en el lugar de trabajo.

La legislación existente ya ofrece una base importante para la regulación de los sistemas de IA, pero ya se están estudiando nuevas propuestas legislativas específicas para la IA y para toda la sociedad, por ejemplo en la UE y en Estados Unidos, con importantes implicaciones en el ámbito laboral.

Estas propuestas aún se están debatiendo y pueden sufrir cambios significativos todavía. En medio de los enfoques autorreguladores, los esfuerzos por establecer normas nacionales o internacionales para un uso fiable de la IA pueden proporcionar importantes parámetros técnicos, con relevancia directa para los sistemas de IA en el lugar de trabajo. Estos esfuerzos pueden servir de base o preceder a los esfuerzos legislativos globales, o servir de complemento a la legislación existente.

Sin embargo, en su desarrollo podrían surgir tensiones entre algunos objetivos políticos. Por ejemplo, la promoción de la equidad y la lucha contra los prejuicios pueden requerir una cantidad y un tipo de datos que podrían plantear riesgos para la privacidad de los trabajadores.

Por todo ello, y con carácter general, el informe considera que es necesario capacitar a los trabajadores, los empresarios, los interlocutores sociales y los reguladores e informarles sobre las implicaciones éticas de la aplicación de la IA en el lugar de trabajo, para que puedan comprenderlas y contribuir con conocimiento de causa a estas consideraciones y decisiones.

Por lo tanto, será esencial seguir recopilando pruebas sobre cómo se utiliza la IA en el lugar de trabajo y sobre cómo su uso puede entrar en conflicto con la aplicación de los principios de la IA de la OCDE o la refuerza. En paralelo, y a medida que los países adopten cada vez más medidas políticas para garantizar un uso fiable de la IA en el lugar de trabajo, las evaluaciones rigurosas, basadas en pruebas y comparativas, serán fundamentales para determinar las opciones políticas eficaces.

Por ejemplo, será importante comprender los posibles parámetros necesarios para que las herramientas de responsabilidad -como las auditorías algorítmicas- sean eficaces para promover una IA digna de confianza en el lugar de trabajo.

En este contexto, el informe concluye que a través del programa “sobre Inteligencia Artificial en el Trabajo, la Innovación, la Productividad y las Competencias” (OECD programme on AI in Work, Innovation, Productivity and Skills, AI-WIPS), la OCDE continuará siguiendo de cerca la evolución de las políticas y promoverá el debate entre los responsables políticos para compartir las lecciones aprendidas e identificar los lugares más prometedores para promover un uso ético de los sistemas de IA en el lugar de trabajo.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll