Cargando. Por favor, espere

EEUU acuerda con las grandes tecnológicas realizar una evaluación pública de los sistemas de IA generativa

  • 9-5-2023 | LA LEY
  • La Casa Blanca ha anunciado tres nuevas medidas para intentar asegurar el desarrollo de una IA responsable en los Estados Unidos, que incluyen, además de este acuerdo, nuevas inversiones y la elaboración de unas directrices políticas sobre el uso de sistemas de IA por parte del gobierno.
Portada

Carlos B Fernández. La Administración Biden-Harris ha anunciado nuevas medidas para promover un desarrollo responsable de la inteligencia artificial (IA) que proteja los derechos y la seguridad de los estadounidenses.

Reiterando que la IA es una de las tecnologías más potentes de nuestro tiempo, para aprovechar las oportunidades que presenta, primero deben mitigarse sus riesgos. En este sentido, según un comunicado difundido por la Casa Blanca, el Presidente Biden ha dejado claro que, en lo que respecta a la IA, debe situarse a las personas y a las comunidades en el centro, apoyando una innovación responsable que sirva al bien público, protegiendo al mismo tiempo a la sociedad, su seguridad y su economía.

La Administración norteamericana considera importante destacar que estos principios implican que las empresas tienen la responsabilidad fundamental de asegurarse de que sus productos son seguros antes de desplegarlos o hacerlos públicos.

Por ello, la Vicepresidenta Kamala Harris y altos funcionarios de la Administración se han reunido con los directores ejecutivos de cuatro de las principales empresas tecnológicas estadounidenses líderes en IA --Alphabet, Anthropic, Microsoft y OpenAI-- para subrayar esta responsabilidad y destacar la importancia de impulsar una innovación responsable, fiable y ética con salvaguardias que mitiguen los riesgos y los posibles daños a las personas y a la sociedad.

En línea con el resultado de esta reunión, la Casa Blanca ha anunciado tres nuevas medidas: un acuerdo con las grandes empresas desarrolladoras de IA para realizar una evaluación pública de los sistemas de IA generativa existentes; nuevas inversiones para impulsar la investigación y el desarrollo (I+D) responsables de la IA en Estados Unidos y la elaboración de unas directrices políticas sobre el uso de sistemas de IA por parte del gobierno de EEUU, para garantizar que su gobierno lidera con el ejemplo en la mitigación de los riesgos de la IA y el aprovechamiento de las oportunidades de la IA.

- Acuerdo con las principales desarrolladoras de IA para realizar una evaluación pública de los sistemas de IA generativa existentes.

La Administración anuncia el compromiso independiente de los principales desarrolladores de IA, entre ellos Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI y Stability AI, de participar en una evaluación pública de los sistemas de IA, de acuerdo con los principios de divulgación responsable de las informaciones relacionadas con los sistemas de IA -sobre una plataforma de evaluación desarrollada por Scale AI (una empresa suministradora de datos para el entrenamiento de sistemas de IA) en la AI Village (una comunidad de desarrolladores y científicos de datos dedicada a la identificación y difusión de los riesgos derivados del uso y el abuso de la IA en los ámbitos de la seguridad y la privacidad) de DEFCON 31 (la mayor organización de hackers éticos del mundo).

Estos procedimientos permitirán que estos modelos sean evaluados a fondo por miles de miembros y expertos de la comunidad de IA para explorar cómo los modelos se alinean con los principios y prácticas descritos en el Plan de la Administración norteamericana para una Declaración de Derechos de IA (Blueprint for an AI Bill of Rights) y el Marco de Gestión de Riesgos de IA (AI Risk Management Framework) .

Este ejercicio independiente proporcionará información crítica a los investigadores y al público sobre los impactos de estos modelos, y permitirá a las empresas y desarrolladores de IA tomar medidas para solucionar los problemas encontrados en esos modelos. La comprobación de los modelos de IA con independencia del gobierno o de las empresas que los han desarrollado es un componente importante para su evaluación eficaz.

- Nuevas inversiones para impulsar la investigación y el desarrollo (I+D) responsables de la IA en Estados Unidos.

La Fundación Nacional de la Ciencia ha anunciado 140 millones de dólares en financiación para poner en marcha siete nuevos Institutos Nacionales de Investigación en Inteligencia Artificial. Esta inversión elevará el número total de institutos a 25 en todo el país y ampliará la red de organizaciones participantes a casi todos los estados.

Estos institutos catalizan los esfuerzos de colaboración entre instituciones de educación superior, agencias federales, la industria y otros para lograr avances transformadores en IA que sean éticos, fiables, responsables y sirvan al bien público. Además de promover la innovación responsable, estos institutos refuerzan la infraestructura estadounidense de I+D en IA y apoyan el desarrollo de una mano de obra diversa en este campo. Los nuevos institutos impulsarán la I+D en IA para lograr avances en áreas críticas como el clima, la agricultura, la energía, la salud pública, la educación y la ciberseguridad.

- Desarrollo de políticas para garantizar que el gobierno de EE.UU. lidera con el ejemplo en la mitigación de los riesgos de la IA y el aprovechamiento de las oportunidades de la IA.

La Oficina de Gestión y Presupuesto (Office of Management and Budget, OMB) anuncia que publicará un borrador de directrices políticas sobre el uso de sistemas de IA por parte del gobierno de EE.UU. para su comentario público.

Estas directrices establecerán políticas específicas que deberán seguir los departamentos y organismos federales para garantizar que el desarrollo, la adquisición y el uso de sistemas de IA se centren en salvaguardar los derechos y la seguridad de los estadounidenses. También facultará a los organismos para aprovechar de forma responsable la IA con el fin de avanzar en sus misiones y reforzar su capacidad para servir de forma equitativa a los estadounidenses, y servirá de modelo para que los gobiernos estatales y locales, las empresas y otras entidades sigan sus propias adquisiciones y uso de la IA.

La OMB publicará este borrador de directrices para recabar comentarios del público este verano, de modo que pueda beneficiarse de las aportaciones de los defensores, la sociedad civil, la industria y otras partes interesadas antes de su finalización.

La Administración de los EEUU y la IA

Esta actividad es muestra del esfuerzo que está desarrollando la actual administración de los EEUU para colaborar con defensores, empresas, investigadores, organizaciones de derechos civiles, organizaciones sin ánimo de lucro, comunidades, socios internacionales y otros sobre cuestiones críticas de la IA.

Este esfuerzo incluyen el mencionado Plan para una Declaración de Derechos de la IA (Blueprint for an AI Bill of Rights) y las acciones ejecutivas relacionadas anunciadas el pasado otoño, así como el Marco de Gestión de Riesgos de la IA (AI Risk Management Framework), así como una hoja de ruta para la creación de un Recurso Nacional de Investigación sobre IA (Roadmap for standing up a National AI Research Resource), publicado a principios de este año.

Además, el pasado mes de febrero, el Presidente Biden firmó una Orden Ejecutiva que ordena a los organismos federales erradicar los prejuicios en el diseño y uso de las nuevas tecnologías, incluida la IA, y proteger al público de la discriminación algorítmica (Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government).

Y, más recientemente, a finales del pasado mes de abril, la Comisión Federal de Comercio, la Oficina de Protección Financiera del Consumidor, la Comisión para la Igualdad de Oportunidades en el Empleo y la División de Derechos Civiles del Departamento de Justicia emitieron una declaración conjunta en la que subrayaban su compromiso colectivo de aprovechar sus competencias legales existentes para proteger al pueblo estadounidense de los daños relacionados con la IA (Joint statement on enforcement efforts against discrimination and bias in automated systems).

Por otra parte, la Administración Biden también está trabajando activamente para abordar los problemas de seguridad nacional que plantea la IA, especialmente en áreas críticas como la ciberseguridad, la bioseguridad y la seguridad. Esto incluye conseguir el apoyo de expertos gubernamentales en ciberseguridad de toda la comunidad de seguridad nacional para garantizar que las principales empresas de IA tengan acceso a las mejores prácticas, incluida la protección de modelos y redes de IA.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll