Cargando. Por favor, espere

Un grupo de expertos solicita una moratoria en el desarrollo de los desarrollos de IA como ChatGPT

  • 29-3-2023 | LA LEY
  • Nombres tan relevantes como Elon Musk, Steve Wozniak, Yuval Noah Harari, Stuart Russell, Max Tegmark, Gary Marcus y Ramón López de Mántaras han suscrito un llamamiento a todos los laboratorios de IA para que pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes.
Portada

Carlos B Fernández. Que los sistemas de Inteligencia Artificial (IA) más avanzados, plantean riesgos para las personas, es un hecho advertido reiteradamente por diversos instrumentos y documentos nacionales e internacionales, sobre la materia. Pueden citarse en este sentido los principios de IA de la OCDE/G20; las Recomendaciones de la UNESCO sobre la ética de la IA; el proyecto de Reglamento Europeo sobre IA o la propuesta de Tratado del Consejo de Europa sobre AI.

En este sentido, el modelo de lenguaje GPT y su ChatGPT son, posiblemente, los desarrollos más avanzados y novedosos de los que se ha tenido noticia últimamente, por lo que han sido objeto de una auténtica avalancha de comentarios y análisis al respecto.

Pero la novedad más relevante ha sido la iniciativa puesta en marcha por el Future of Life Institute, una organización sin fines de lucro dedicada a analizar y tratar de reducir los riesgos que plantean estas tecnologías, para que se establezca una moratoria sobre el desarrollo de GPT-4.

En su carta abierta “Detengan los experimentos gigantes de IA” (Pause Giant AI Experiments), esta organización hace “un llamamiento a todos los laboratorios de IA para que pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4”.

Hasta el momento de redactar estas líneas, el manifiesto ha recibido ya más de 1.100 adhesiones, entre ellas las de nombres tan relevantes como Elon Musk, Steve Wozniak, Yuval Noah Harari, Stuart Russell, Max Tegmark, Gary Marcus o los españoles Ramón López de Mántaras y Mateo Valero Cortés, Director del Barcelona Supercomputing Center.

Los riesgos que plantean los sistemas de IA más avanzados

El documento plantea que “Los sistemas de IA con una inteligencia que compite con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, tal y como demuestran numerosas investigaciones y reconocen los principales laboratorios de IA”.

En este sentido, se remite a los Principios de Asilomar sobre IA de 2017, en los que se advierte que “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, por lo que debería planificarse y gestionarse con el cuidado y los recursos adecuados.”

Por desgracia, señala, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie --ni siquiera sus creadores-- puede entender, predecir o controlar de forma fiable.

Por ello, los autores del manifiesto se preguntan: “¿debemos dejar que las máquinas inunden nuestros canales de información? ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los más gratificantes? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?”.

En su opinión, las respuestas a estas preguntas no deben delegarse en líderes tecnológicos que no han sido elegidos por los ciudadandos.

Por ello, destacan que los sistemas de IA más potentes sólo deben desarrollarse “cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables.” Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema.

La propuesta recuerda una reciente declaración de OpenAI, la empresa desarrolladora de la tecnología GPT, en relación con la inteligencia artificial general “Planning for AGI and beyond”, en la que afirma que "En algún momento, puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas, y que los esfuerzos más avanzados acuerden limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos." Estamos de acuerdo, señalan, “Ese momento es ahora”.

Moratoria de seis meses

Por lo tanto, los autores del documento piden “a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4”.

Esta pausa debería ser pública y verificable, e incluir a todos los actores clave del sector. En caso de que esta pausa no pudiera realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

En su transcurso, “Los laboratorios de IA y los expertos independientes deberían aprovechar para desarrollar y aplicar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deberían garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable”. Esto no significa, se advierte, una pausa en el desarrollo de la IA en general, “sino simplemente un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles y cada vez más grandes con capacidades emergentes”.

La investigación y el desarrollo de la IA deben volver a centrarse en conseguir que los potentes sistemas de vanguardia actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales.

Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deberían incluir, como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes reservas de capacidad computacional; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear las fugas de modelos; un ecosistema sólido de auditoría y certificación; responsabilidad por los daños causados por la IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA.

La propuesta concluye recordando que la sociedad ya ha puesto pausa anteriormente a otras tecnologías con efectos potencialmente catastróficos para la sociedad, en ámbitos como la clonación humana, la manipulación genética, la investigación de ganancia de función (Gain of function research) y la eugenesia.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll