Cargando. Por favor, espere

ChatGPT is coming…

Arenas Ramiro, Mónica

LA LEY 3582/2023

No sabemos si finalmente llegará con el invierno, pero lo cierto es que la herramienta de Inteligencia Artificial ChatGPT está viendo observados sus movimientos por parte de diversas Autoridades de Protección de Datos -entre ellas, dos españolas- que están alertando de los peligros que para el futuro de nuestras sociedades supone un uso incontrolado de la Inteligencia Artificial (IA). En esta ocasión, tenemos que felicitarnos de que las Autoridades de control estén cooperando para hacer frente común a lo que se vaticina como uno de los mayores cambios en la historia de la humanidad.

Desde que en 1950, Alan Turing planteara en su ensayo “Computing Machinery and Intelligence” si las máquinas podían pensar, y propusiera su “juego de la imitación” (comúnmente conocido como Test de Turing) para comprobarlo, los grandes avances tecnológicos en el terreno de la informática y de la computación, especialmente desde el 2011, y el desarrollo en los años siguientes de ordenadores cada vez más potentes y capaces de procesar grandes volúmenes de datos en un tiempo cada vez más breve, ha convertido a la IA en un elemento esencial en todos los sectores de nuestras vidas a pasos agigantados y tomando, o ayudando a tomar, decisiones por los seres humanos, aunque todavía no sabemos si más inteligentes.

En este sentido, centrándonos en algunos aspectos positivos del desarrollo de las IAs, podemos destacar no sólo los avances en el terreno de la medicina predictiva, los coches inteligentes o, incluso, las ciudades inteligentes, sino la automatización de multitud de procesos, lo que nos permite ser mucho más eficaces y eficientes, tanto en el sector público como en el sector privado, y dejar procesos que son mecánicos a las máquinas para poder emplear la inteligencia humana en otros aspectos.

Todo esto, como es lógico, tiene un impacto directo en la economía, pero también, entre otros, en los procesos educativos, en la cultura y en la creatividad del ser humano. La cuestión aquí, más allá del temor a la pérdida de puestos de trabajo porque las máquinas reemplacen a los humanos, debería girar en relación con el hecho de si la automatización hará que se agudice la inteligencia humana o si se perderá irremediablemente y nos hará más ignorantes y conformistas, sin la necesaria capacidad crítica para poder formarnos una opinión fundada que nos permita tomar decisiones consecuentes y hacer real el principio democrático.

La capacidad de tratar datos personales por estas nuevas herramientas no sólo nos sitúa frente a los beneficios que nos ofrecen, sino a la ventana que abren frente a técnicas como la vigilancia masiva y predictiva de la población, la afectación de los derechos de la comunicación en el ámbito digital, con algoritmos que permiten no sólo priorizar contenidos, sino polarizar a la sociedad para mantenerla enganchada a la Red, la aparición de noticias falsas o fake news y la manipulación informativa, planteándose importantes desafíos para la veracidad y la confiabilidad de la información. Peligros de los que el 27 de marzo de 2023 ya alertaba la Policía Europea, quien también señalaba que esta herramienta se estaba utilizando por redes criminales para hacer phishing y ciberdelincuencia, debido a la alta capacidad de ChatGPT para redactar textos muy realistas, haciéndolos pasar por verdaderos para los usuarios finales.

Hemos creado una dependencia tecnológica que, a día de hoy están pagando nuestras generaciones futuras, nuestros niños, niñas y adolescentes. Nunca nuestra sociedad ha estado más perdida en valores de lo que lo está en la actualidad. Si hacemos caso de las estadísticas de suicidios entre jóvenes y adolescentes, nunca hemos tenido una sociedad mejor preparada y más solitaria o vacía. No es más rico el que más tiene, sino el que menos necesita, decía San Agustín.

Así las cosas, sin adentrarnos más en las ventajas y peligros de estos avances tecnológicos, en este proceso de transformación digital, de cambio de paradigma en nuestras sociedades, ha sido una de las herramientas de IA la que ha hecho saltar las alarmas y frenar en seco el proceso de digitalización. Nos referimos al chatbot ChatGPT, propiedad de OpenAI.

ChatGPT ha alterado el panorama actual de nuestras sociedades porque tanto ciudadanos como los sectores públicos y privado se han hecho conscientes del impacto de su uso en nuestros derechos, especialmente en nuestra privacidad, con una capacidad disruptiva nunca vista

Pues bien, ChatGPT ha alterado el panorama actual de nuestras sociedades no sólo porque desde su lanzamiento, el 30 de noviembre de 2022, haya sido la plataforma de Internet que ha experimentado el crecimiento en número de usuarios más acelerado en toda la historia de Internet (unos 10 millones de usuarios diarios en menos de 40 días), sino porque tanto ciudadanos como poderes públicos y sector privado se han hecho conscientes del impacto de su uso en nuestros derechos, especialmente en nuestra privacidad, dibujando perfiles y patrones de los sujetos con el potencial de influir en los mismos, con una capacidad disruptiva nunca vista. Y todo ello porque este tipo de herramientas bebe de nuestra información personal (directa o indirectamente). De ahí la intervención de las Autoridades de protección de datos, y de ahí la necesaria aplicación del Reglamento General de Protección de Datos europeo (RGPD) (LA LEY 6637/2016).

A este debate abierto han contribuido numerosas y reputadas voces no solo de Autoridades de control, juristas y la academia, sino de científicos y filósofos que venían poniendo el grito en el cielo, clamando prestar atención a la deriva que estaba tomando el uso de la tecnología en todos los ámbitos de nuestra vida.

Así, por ejemplo, el 22 de marzo de 2023 desde el Future of Life Institute se lanzó una carta abierta a los desarrolladores de IAs titulada “Pause Giant AI Experiments”, conminándoles a frenar el desarrollo de las IAs, por lo menos durante un periodo de seis meses, hasta que se reflexionara y planificara su uso, se evaluara por Autoridades independientes y se acelerara el desarrollo de un sistema de gobernanza de la IA. Junto a esta carta, el 12 de abril publicaron un conjunto de recomendaciones para los poderes públicos destinadas a tal fin y basadas en los 23 Principios de Asilomar, de 6 de enero de 2017, que el Instituto publicó sobre Inteligencia Artificial -una especie de extensión de las tres Leyes de la robótica de Asimov-, con el fin de establecer las bases del desarrollo de las futuras plataformas de IA, como, por ejemplo, evitar las competiciones sin medida y buscar la cooperación activa alineada con los valores humanos e ideales de dignidad humana, derechos, libertades y diversidad cultural. Esta carta abierta, a finales de abril, ya había recogido un total de unas 28.000 firmas, entre las que curiosamente se encontraba la del propio Elon Musk, uno de los fundadores de OpenAI.

De entre las Autoridades de control de protección de datos la primera en actuar fue el Garante para la protección de datos personales de Italia, que el 2 de febrero de 2023, tomaba la decisión de paralizar una herramienta de IA llamada “Replika”. Y aunque esto no levantó mucho revuelo, sí que lo hizo su decisión, de 30 de marzo de 2023, de suspensión de ChatGPT, por ser ésta más conocida. El Garante señalaba en ambos casos que hasta que dichas herramientas no cumplieran con la normativa de protección de datos (con una clara alusión al RGPD) e implementaran las medidas de garantía adecuadas, quedaban suspendidas en Italia.

Este fue el pistoletazo de salida: una Autoridad de protección de datos paralizando una herramienta de IA, no haciendo una mera recomendación o procediendo a una sanción. Así, en esta línea, el Comisionado de protección de datos irlandés anunció que iniciaría investigaciones sobre ChatGPT, lo mismo que sucedió en Francia con la Comisión nacional de informática y libertades, que el 11 de abril, que anunció que estaba investigando varias quejas sobre ChatGPT. Incluso la Oficina del Comisionado de Privacidad de Canadá, también con fecha 4 de abril anunció que había iniciado una investigación sobre OpenAI. Pero ha sido el Comisionado federal de protección de datos y libertad de información, quien el 4 de abril anunció una postura algo más beligerante, señalando que les preocupaba la seguridad de los datos y que no descartaban, como la Autoridad italiana, suspender el uso de ChatGPT en Alemania.

Días más tarde de estos pronunciamientos, el 13 de abril de 2023, el Comité Europeo de Protección de Datos (CEPD) decidió constituir un Grupo de trabajo para fomentar la cooperación en las acciones que las Autoridades de protección de datos llevaran a cabo en este terreno.

Ese mismo día, el 13 de abril, la Agencia Española de Protección de Datos (AEPD) anunció que abriría una investigación de oficio a la empresa OpenAI, creadora de ChatGPT. Por su parte, el 15 de abril, el Gobierno, a través de la Secretaria de Estado de Digitalización e Inteligencia artificial (SEDIA) anunció que se podría bloquear el acceso a ChatGPT si su servidor no cumplía con la normativa de protección de datos. Y, de forma mucho más reciente, el 21 de abril de 2023, la Autoridad Catalana de Protección de Datos (APDCAT), emitió su Recomendación 1/2023 sobre la utilización de ChatGPT y su impacto en la protección de datos, recomendando al sector público no utilizar dicha herramienta si la misma utilizaba datos personales.

Así las cosas, el Garante italiano, dio de plazo a OpenAI hasta el 30 de abril de 2023 para cumplir con la normativa de protección de datos, y en su Decisión de 11 de abril de 2023 le indicó un total de 9 condiciones a cumplir si quería seguir funcionando en Italia, consistentes básicamente en la publicación de una política de privacidad, en la elaboración de herramientas que permitan a los usuarios ejercer sus derechos y que permitan verificar la edad de los usuarios excluyendo a los menores de 13 años, y lo que es lo más importante, contar con una base de legitimación que no fuera el contrato firmado con los usuarios. Antes de que finalizara el plazo dado, el 28 de abril de 2023 se reabrió el servicio de ChatGPT en Italia tras haber enviado OpenAI una nota al Garante italiano informándole de las mejoras adoptadas y tras haber expresado éste su satisfacción, a pesar de seguir manteniendo la investigación contra la citada entidad abierta. Entre las mejoras introducidas, OpenAI destacó la información adicional publicada en su página web sobre el entrenamiento de los algoritmos; la creación de formularios para que los usuarios pudieran ejercitar sus derechos; el establecimiento de un mecanismo de bloqueo en el registro de menores de 13 años y la exigencia del consentimiento paterno para mayores de 13 años, pero menores; y, por último, el establecimiento, como regla general, del interés legítimo como base de legitimación para entrenar el algoritmo, salvo que se hubiera ejercido el derecho de oposición.

Por su parte, la Autoridad catalana en su Recomendación 1/2023, reconociendo que “el uso de ChatGPT genera importantes dudas sobre la información de carácter personal que está tratando”, recomienda a las Administraciones públicas y entidades sujetas a su ámbito de control” que no incorporen la herramienta en el ejercicio de sus funciones públicas y de prestación de servicios públicos cuando se traten datos personales”. Pero ojo, que esta recomendación no es indeterminada, sino hasta que el CEPD “se pronuncie emita recomendaciones, directrices o buenas prácticas para garantizar el respeto a la normativa de protección de datos”.

La alarma se ha encendido. Se están poniendo sobre el papel los enormes beneficios que las herramientas diseñadas con IA aportan a la vida de los seres humanos, pero también se está poniendo el acento en los peligros que éstas representan para todos y cada uno de nuestros derechos fundamentales. No hay derecho humano que no se haya visto afectado por este proceso de transformación digital que ha calado hasta las costuras de nuestros Estados que tratan de hacerles frente.

La cuestión es que lo que ahora diseñemos, la máquina -o el ChatGPT- que ahora entrenemos, será la que marcará nuestro futuro. De ahí que si entrenamos una IA con datos sesgados y discriminatorios el único resultado posible será un resultado sesgado y discriminatorio. Todos recordaremos a la IA de Microsoft (Tay) que, en 2016, tras pasar un día en Twitter empezó a lanzar mensajes racistas, homófobos y antisemitas, o, más recientemente, y a nivel nacional, el conocido caso español del algoritmo Bosco diseñado para ayudar en el proceso de asignación de un bono social para el pago de la factura de la luz. De ahí la necesidad esencial de entrenar estas herramientas de la forma más transparente posible. Y de ahí la exigencia del cumplimiento de los principios de transparencia y rendición de cuentas. La tecnología es neutra, nos guste admitirlo o no. Son las manos que la diseñan las que están sesgadas y de ahí la importancia de controlar su proceso de creación. La falta de transparencia, responsabilidad y ética en la implementación herramientas de IA, como se ha puesto de manifiesto y se está planteando en el caso de ChaGPT, puede llevar a decisiones opacas, sesgadas o injustas, lo que podría tener consecuencias negativas para las personas y la sociedad en su conjunto.

Pero estas herramientas no están afectando sólo a nuestros derechos fundamentales, sino que el impacto en los mismos está produciendo una rotura de los cimientos sobre los que tradicionalmente se ha construido la Teoría del Estado y la Teoría de la Constitución, desde las ideas de la separación de poderes hasta el proceso de participación en el proyecto constituyente. No podemos jugar a las mismas reglas cuando el escenario se ha digitalizado y han entrado en el campo de juego nuevos actores del sector privado con los que hay que jugar, sí o sí, si queremos terminar la partida. Jumanji.

Se ha comparado la Revolución digital que vivimos con la Revolución industrial de la segunda mitad del siglo XVIII, y no faltan razones. No sólo por el efecto disruptivo, sino por la semejanza entre los pocos que, en aquel momento, supieron ver el cambio -los llamados “robber barons” (entre los que estaba, por ejemplo, el conocido magnate Rockefeller)- y la falta de regulación existente, de la que se aprovecharon hasta la aparición de las Leyes antimonopolio. La historia se repite. Y ahora nuestra locomotora es la IA y los gigantes tecnológicos como Google, Facebook o Amazon actúan sin control alguno.

Por todo ello, es importante abordar estos desafíos de manera adecuada y ética para asegurar que la IA se desarrolle y utilice en beneficio de la humanidad en su conjunto. No basta con emitir recomendaciones o buenas prácticas, o con aprobar Declaraciones de derechos o principios si luego en la práctica se quedan sobre papel mojado, aunque no negamos el importante valor que tienen. Será necesario esperar a ver el resultado final de la Propuesta de Reglamento de IA de abril de 2021. Pero, en este caso, hay que ser más proactivos, más expeditivos porque la ocasión lo requiere. Las normas sobre protección de datos personales existen y son aplicables. No hay que inventar nada nuevo. Hay que hacer que se cumplan: incorporar la privacidad desde el diseño y por defecto, evaluar el impacto en nuestra vida privada, implementar medidas de seguridad y grandes dosis de transparencia y rendición de cuentas.

No podemos cerrar los ojos y ponernos nuestras mejores pieles y esperar no morir congelados porque el invierno va a llegar. Debemos tomar las medidas necesarias para controlar estas nuevas herramientas desde su diseño y ese momento es ahora. Toca pararse a pensar. No retroceder, no frenar, sino planificar. Pensar en el futuro que queremos construir y con quién y cómo lo queremos construir.

Mónica Arenas Ramiro

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll