Cargando. Por favor, espere

El AI Index de la Universidad de Stanford presenta los datos más relevantes sobre la evolución del sector

  • 17-3-2022 | Wolters Kluwer
  • El informe destaca que la inversión privada en IA se ha duplicado desde 2020; que el número de patentes de IA presentadas se ha disparado: más de 30 veces más que en 2015, con una tasa de crecimiento anual compuesta del 76,9%; que el coste de entrenar los sistemas ha disminuido un 63,6% y los tiempos de entrenamiento han mejorado un 94,4% desde 2018. El precio medio de los brazos robóticos también se ha reducido cuatro veces en los últimos seis años y que ha aumentado el número de trabajos sobre las implicaciones éticas de la IA.
Portada

El Centro de la Universidad de Stanford para una inteligencia artificial basada en el ser humano, Stanford HAI, ha presentado la edición quinta edición su informe sobre el desarrollo y el impacto de la IA, the 2022 AI Index.

Se trata de una proyecto independiente desarrollado por un equipo interdisciplinar creado en asociación con miembros de la universidad, la industria y el gobierno, como como el Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, LinkedIn y Bloomberg Government, que analiza las principales tendencias del sector, desde las inversiones en el mismo al desarrollo tecnológico, la formación o las políticas públicas. Su finalidad es facilitar a los responsables de la toma de decisiones del sector la adopción de medidas que permitan un avance responsable y ético de esta tecnología.

Según sus autores, esta edición 2022 del AI Index cuantifica y evalúa el rápido avance de la IA, desde la investigación a la implantación y la ética, la economía y la educación, la política y la gobernanza de la IA, etc. La última edición incluye datos de un amplio conjunto de organizaciones académicas, privadas y sin ánimo de lucro, así como más datos recogidos por los propios interesados y análisis originales que en las ediciones anteriores. Por ejemplo, el índice ha ampliado significativamente el número de métricas en el capítulo de rendimiento técnico, ha añadido una nueva encuesta de investigadores especializados en robótica en todo el mundo y ha ampliado su seguimiento de los registros de la legislación mundial sobre IA a 25 países.

El análisis también incluye un nuevo capítulo sobre la ética de la IA: una encuesta sobre las métricas utilizadas para evaluar el sesgo en los grandes modelos lingüísticos y una disección de las tendencias de investigación de la equidad, la transparencia y la responsabilidad de la IA (FAccT) en las conferencias anuales de FAccT y NeurIPS.

Principales conclusiones

Las principales conclusiones del informe se sintetizan como sigue:

- Se dispara la inversión privada en IA, a la vez que se intensifica la concentración de la inversión

La inversión privada en IA en 2021 ascendió a unos 93.500 millones de dólares -más del doble de la inversión privada total en 2020-, mientras que el número de empresas de IA recién financiadas sigue disminuyendo, pasando de 1051 empresas en 2019 y 762 empresas en 2020 a 746 empresas en 2021. En 2020, hubo 4 rondas de financiación por valor de 500 millones de dólares o más; en 2021, hubo 15.

- Estados Unidos y China encabezan la colaboración entre paises

A pesar de las crecientes tensiones geopolíticas, Estados Unidos y China tuvieron el mayor número de colaboraciones entre países en publicaciones sobre IA de 2010 a 2021, aumentando cinco veces desde 2010. La colaboración entre ambos países produjo 2,7 veces más publicaciones que entre el Reino Unido y China, la segunda más alta de la lista.

- Los modelos lingüísticos son más capaces que nunca, pero también más sesgados

Los grandes modelos lingüísticos están estableciendo nuevos récords en las pruebas técnicas, pero los nuevos datos muestran que los modelos más grandes también son más capaces de reflejar los sesgos de sus datos de entrenamiento. Un modelo de 280 mil millones de parámetros desarrollado en 2021 muestra un aumento del 29% en la toxicidad elicitada respecto a un modelo de 117 millones de parámetros considerado el estado del arte en 2018. Los sistemas se están volviendo significativamente más capaces con el tiempo, aunque a medida que aumentan sus capacidades, también lo hace la gravedad potencial de sus sesgos.

- El aumento de la ética de la IA en todas partes

La investigación sobre la equidad y la transparencia en la IA se ha disparado desde 2014, quintuplicando las publicaciones sobre temas relacionados en los últimos cuatro años. La imparcialidad y el sesgo de los algoritmos han pasado de ser una actividad principalmente académica a convertirse en un tema de investigación general con amplias implicaciones. En los últimos años, los investigadores afiliados a la industria han contribuido con un 71% más de publicaciones año tras año en las conferencias centradas en la ética.

- La IA se vuelve más asequible y de mayor rendimiento

Desde 2018, el coste de entrenar un sistema de clasificación de imágenes ha disminuido un 63,6%, mientras que los tiempos de entrenamiento han mejorado un 94,4%.

La tendencia de un menor coste de entrenamiento pero un tiempo de entrenamiento más rápido aparece en otras categorías de tareas MLPerf, como la

recomendación, la detección de objetos y el procesamiento del lenguaje, y favorece la adopción comercial más generalizada de las tecnologías de IA.

- Datos, datos, datos

Los mejores resultados en las pruebas técnicas se basan cada vez más en el uso de datos de entrenamiento adicionales para establecer nuevos resultados de vanguardia. En 2021, 9 de los 10 sistemas de IA más avanzados de este informe se han entrenado con datos adicionales. Esta tendencia favorece implícitamente a los actores del sector privado con acceso a vastos conjuntos de datos.

- Más legislación mundial sobre IA que nunca

Un análisis del Índice de IA de los registros legislativos sobre IA en 25 países muestra que el número de proyectos de ley que contienen "inteligencia artificial" que se convirtieron en ley creció de solo 1 en 2016 a 18 en 2021. España, el Reino Unido y los Estados Unidos aprobaron el mayor número de proyectos de ley relacionados con la IA en 2021, con la adopción de tres cada uno.

- Los brazos robóticos son cada vez más baratos

Una encuesta del Índice de IA muestra que el precio medio de los brazos robóticos se ha reducido 4 veces en los últimos seis años: de 50.000 dólares por brazo en 2016 a 12.845 dólares en 2021. La investigación robótica se ha vuelto más accesible y asequible.

Principales tendencias en el ámbito de la IA

Las principales tendencias de este año incluyen un fuerte aumento de la inversión privada, impresionantes logros técnicos y un nuevo nivel de atención a las cuestiones de equidad y parcialidad.

1. Se buscan expertos en machine learning skills, redes neuronales y tratamiento del lenguaje natural

El porcentaje de ofertas de empleo en IA entre todas las ofertas de empleo en 2021 fue mayor para las habilidades de aprendizaje automático (0,6% de todas las ofertas de empleo), seguido de la inteligencia artificial (0,33%), las redes neuronales (0,16%) y el procesamiento del lenguaje natural (0,13%). Las ofertas de empleo de IA en aprendizaje automático e inteligencia artificial han aumentado considerablemente en los últimos dos años. Los puestos de trabajo de aprendizaje automático están en casi tres veces el nivel que alcanzaron en 2018, mientras que los puestos de trabajo de inteligencia artificial están en alrededor de 1,5 veces el nivel.

2. Educación, industria y gobiernos, polos de atracción de los expertos

Los últimos 10 años muestran que más personas están obteniendo doctorados en IA. La mayoría en Estados Unidos se dirige a la industria, mientras que una pequeña fracción ocupa puestos de trabajo en el gobierno.

3. Una grave escasez de diversidad

Entre los nuevos doctores en IA de 2010 a 2020 que son residentes en EE.UU., el mayor porcentaje ha sido de blancos no hispanos y asiáticos: 65,2% y 18,8% de media.

En comparación, alrededor del 1,5% eran negros o afroamericanos (no hispanos) y el 2,9% eran hispanos de media en los últimos 11 años. En la última década, el porcentaje de nuevos doctores en informática negros o afroamericanos e hispanos se redujo considerablemente.

4. Auge de la inversión privada

En 2021, la inversión privada mundial en IA ascendió a unos 93.500 millones de dólares, lo que supone más del doble de la inversión privada total en 2020. Eso marca el mayor aumento interanual desde 2014 (cuando la inversión de 2013 a 2014 se duplicó con creces).

5. La investigación se centra en el reconocimiento de patrones y el machine learning

Cada vez más estudiosos se centran en el reconocimiento de patrones y el aprendizaje automático. Las publicaciones en estas dos áreas se han duplicado con creces desde 2015. Otras áreas fuertemente influenciadas por el aprendizaje profundo, como la visión por ordenador, la minería de datos y el procesamiento del lenguaje natural, han mostrado incrementos menores.

6. Se dispara el número de patentes de IA

El número de patentes presentadas en 2021 es 30 veces mayor que en 2015, mostrando una tasa de crecimiento anual compuesta del 76,9%. Por regiones, Asia Oriental y el Pacífico lideran el resto del mundo en 2021 con el 62,1% de todas las solicitudes de patentes, seguido de América del Norte (17,07%) y Europa y Asia Central (4,16%).

7. Una robótica cada vez más accesible y asequible

La robótica es cada vez más accesible y asequible. La encuesta del Índice AI muestra que el precio medio de los brazos robóticos se ha reducido cuatro veces en los últimos seis años: de 50.000 dólares por brazo en 2016 a 12.845 dólares en 2021.

8. Los académicos se centran en la equidad, la responsabilidad y la transparencia (FAccT)

ACM FAccT es una conferencia interdisciplinaria que publica investigaciones sobre equidad, responsabilidad y transparencia algorítmica. Esta conferencia interdisciplinaria está viendo mucho más interés en estos temas en todas las organizaciones, con los estudiosos de la industria en particular desarrollando más investigación en estas áreas.

9. La política estadounidense empieza a mostrar interés por la IA

En los últimos años, los legisladores federales han aumentado considerablemente las propuestas de regulación relacionadas con la IA. En 2015, sólo se propuso un proyecto de ley federal, mientras que en 2021 hubo 130. Aunque este salto es significativo, el número de proyectos de ley relacionados con la IA que se aprueban no ha seguido el ritmo del creciente volumen de propuestas de ley relacionadas con la IA. Esta brecha fue más evidente en 2021, cuando solo el 2% de todos los proyectos de ley relacionados con la IA a nivel federal se convirtieron finalmente en leyes.

Los problemas éticos de la IA

Esta edición del informe dedica particular atención a los aspectos éticos relacionados con la IA. Así, el capítulo dedicado a esta cuestión aborda temas como la propensión de los modelos lingüísticos a generar contenidos tóxicos, la capacidad humana para engatusar a los modelos lingüísticos para que sean veraces y el alcance del sesgo de género en los sistemas de traducción automática.

- El problema de la toxicidad de los modelos lingüísticos

Varios modelos lingüísticos de última generación son modelos "generativos": Si se les da cierta información -un gran corpus de texto de Internet, por ejemplo-, generarán nueva información. Los modelos lingüísticos, se señala, intentan predecir la siguiente palabra de una frase, repetidamente. Al final producen frases impresionantemente coherentes.

El problema es que en una cierta cantidad de veces, los grandes modelos lingüísticos producirán un lenguaje racista, sexista, antisemita, antimusulmán o anti-LGBTQ+.

Según una investigación reciente realizada por DeepMind, creadores del modelo lingüístico Gopher, la probabilidad de que se produzca una respuesta tóxica está directamente relacionada con la toxicidad del texto solicitado. Por ejemplo, en respuesta a la pregunta "Joe Jones caminó por la calle", un modelo de lenguaje es bastante probable que diga algo no tóxico como "y se fue a trabajar". Sin embargo, la pregunta "Joe Jones se enfadó con su novia mientras caminaba por la calle" es más probable que produzca frases sexistas o antifemeninas.

Otro hallazgo importante: Aunque la toxicidad de las respuestas aumenta a medida que los modelos lingüísticos son más grandes, los modelos más grandes también son mejores para clasificar el texto tóxico. Según se destaca, los investigadores descubrieron que cuanto más tóxica es una indicación, mayor es la probabilidad de que la continuación sea tóxica. Además, cuanto más grande es el modelo lingüístico, más tóxico es el resultado.

- El problema de la verdad de los modelos lingüísticos

Históricamente, los modelos lingüísticos no podían utilizarse para transmitir información veraz o factual sobre el mundo. Por ejemplo, si se le pregunta a un modelo quién era el presidente de los EEUU en 2012, podría devolver el nombre de cualquier político al azar.

De hecho, hasta septiembre de 2021, con la publicación de la referencia TruthfulQA, ni siquiera había una buena forma de medir la veracidad de los modelos. Y según ese punto de referencia, en ese momento la mayoría de los modelos entrenados en Internet eran veraces solo un 25% de las veces, lo que significa que son fundamentalmente poco fiables.

Sin embargo, en diciembre de 2021, por primera vez, un modelo lingüístico logró un gran avance: Su veracidad en el punto de referencia TruthfulQA se disparó al 43%. Eso puede no parecer muy veraz, pero es enorme para el campo.

Los avances en este campo han sido lentos, en parte, porque no se pueden resolver los problemas éticos con los modelos de texto hasta que éstos sean lo suficientemente buenos como para generar un texto coherente.

- Los problemas de género de la traducción automática

Los sistemas de traducción automática, como Google Translate, suelen entrenarse con datos que son en un 99% ingleses. Por ello, cuando se traduce el inglés a otros idiomas, se producen errores. Por ejemplo, los términos de género binarios (masculino/femenino) sólo se traducen con precisión entre el 40% y el 65% de las veces, dependiendo del idioma. Incluso cuando Google Translate traduce una frase en inglés que no tiene ningún género, como "the doctor went to the operating room" (el médico fue al quirófano), puede asignar un género basado en estereotipos sobre el género probable de un médico.

Además, la traducción automática traduce mejor los ejemplos relacionados con entidades masculinas que las femeninas, y lo hace peor cuando las personas descritas en el texto que se traduce tienen roles de género no estereotipados. Por ejemplo, si el texto en inglés se refiere a una enfermera como "he", la probabilidad de que se produzca una traducción de género errónea es mayor que si el texto se refiere a la enfermera como "she", y viceversa para los médicos o los abogados.

Crece el número de estudios sobre ética de la IA

Finalmente, el informe destaca que si el número de publicaciones revisadas por pares sobre un tema es una buena medida del compromiso en un campo de investigación concreto, entonces la ética de la IA está experimentando un pequeño boom. Por ejemplo, en NeurIPS, una de las mayores conferencias sobre IA, el número de trabajos aceptados sobre ciertos temas candentes de la ética de la IA (interpretabilidad, explicabilidad, causalidad, equidad, sesgo y privacidad) ha aumentado constantemente en los últimos años.

Además, en los dos últimos años se ha duplicado el número de trabajos sobre diversas formas de medir la parcialidad o la toxicidad en los sistemas de IA, así como el número de trabajos presentados en la mayor conferencia sobre equidad algorítmica (FAccT).

Y lo que es más prometedor: Las empresas del espacio de la IA están empezando a tomarse en serio la ética de la IA, como indica la creciente proporción de artículos sobre ética de la IA revisados por pares que han presentado a FAccT cada año. Esta tendencia sugiere que los actores del sector están yendo más allá de la mera publicación de normas de IA, un paso relativamente insignificante que muchas empresas han dado en los últimos años, como se indica en el Índice de IA 2021.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll