Inteligencia de datos generativa

El informe de Stanford sobre la IA encuentra que una industria en auge se encuentra en una encrucijada

Fecha:

El Instituto Stanford para la Inteligencia Artificial Centrada en las Personas (HAI) ha publicado su séptimo informe anual sobre el índice de IA, que informa sobre una industria próspera que enfrenta costos, regulaciones y preocupaciones públicas crecientes.

La página 502 reporte [PDF] proviene de la academia y la industria: el comité directivo de HAI está dirigido por el cofundador de Anthropic, Jack Clark, y Ray Perrault, un científico informático en el Centro de Inteligencia Artificial de SRI International, y por lo tanto no se detiene demasiado en quemarlo. argumentos con fuego.

Hasta ese punto, el informe define la privacidad de manera que las personas tienen derecho a dar su consentimiento para que grandes modelos lingüísticos (LLM) utilicen sus datos. Sin embargo, no propone que las empresas de IA deban abandonar los modelos existentes porque fueron construidos sin permiso. Sugiere transparencia, más que penitencia.

"Obtener un consentimiento genuino e informado para la recopilación de datos de capacitación es especialmente desafiante en los LLM, que dependen de cantidades masivas de datos", dice el informe. “En muchos casos, los usuarios desconocen cómo se utilizan sus datos o el alcance de su recopilación. Por lo tanto, es importante garantizar la transparencia en torno a las prácticas de recopilación de datos”.

El resultado de varios juicios pendientes, como el caso contra Copilot de GitHub, podría significar que la transparencia no es suficiente, que los datos de entrenamiento de IA requieren un permiso explícito y tal vez pagos prohibitivos.

Pero suponiendo que la IA llegó para quedarse y hay que tenerla en cuenta en su forma actual, el informe logra resaltar la promesa y el peligro de la toma de decisiones automatizada.

"Nuestra misión es proporcionar datos imparciales, rigurosamente examinados y de amplias fuentes para que los formuladores de políticas, investigadores, ejecutivos, periodistas y el público en general desarrollen una comprensión más profunda y matizada del complejo campo de la IA", explica el informe.

Algunas de las principales conclusiones del informe no son particularmente sorprendentes, como "la IA supera a los humanos en algunas tareas, pero no en todas" y "la industria sigue dominando la investigación de vanguardia en IA".

Respecto a este último punto, el informe dice que la industria produjo 51 modelos de aprendizaje automático notables, en comparación con 15 del mundo académico y 21 de colaboraciones entre la industria y el mundo académico.

Si bien los modelos cerrados (por ejemplo, GPT-4, Gemini) superaron a los modelos de código abierto en un conjunto de 10 puntos de referencia de IA, los modelos de código abierto se están volviendo más comunes. De los 149 modelos básicos lanzados en 2023, el 65.7 por ciento eran de código abierto, en comparación con el 44.4 por ciento en 2022 y el 33.3 por ciento en 2021.

Si esa tendencia continúa puede estar relacionado con otro hallazgo importante: "Los modelos Frontier se vuelven mucho más caros". Es decir, parece poco probable que los modelos de código abierto se vuelvan más competitivos con sus rivales de código cerrado si el costo de entrenar un modelo de IA de vanguardia se convierte en algo que sólo los bien financiados pueden contemplar.

"Según las estimaciones del Índice de IA, los costos medios de entrenar modelos de IA de vanguardia casi se duplicaron en el último año", dice el informe. “Los costes de formación de los modelos más modernos han alcanzado niveles sin precedentes. Por ejemplo, GPT-4 de OpenAI utilizó un valor estimado de 78 millones de dólares en computación para entrenar, mientras que Gemini Ultra de Google costó 191 millones de dólares en computación”.

Ya existen dudas de que la IA valga la pena. Un estudio de enero del MIT CSAIL, MIT Sloan, The Productivity Institute y el Institute for Business Value de IBM encontrado que "sólo es económicamente sensato reemplazar el trabajo humano con IA en aproximadamente una cuarta parte de los trabajos donde la visión es un componente clave del trabajo". Y un reciente Wall Street Journal reporte indica que las empresas de tecnología no necesariamente han encontrado una manera de hacer que las inversiones en IA valgan la pena.

De ahí que todos los tarifas adicionales para servicios aumentados con IA.

Cuando se considera junto con otros hallazgos del informe HAI como “En los EE. UU., las regulaciones de IA aumentan considerablemente”, parece probable que el entrenamiento del modelo de IA se vuelva aún más intensivo en capital. Según el informe, el año pasado en Estados Unidos hubo 25 regulaciones relacionadas con la IA (en comparación con una en 2016) y esto traerá costos adicionales.

Otro hallazgo que puede generar más regulaciones y, por ende, costos de cumplimiento, es la forma en que la gente piensa acerca de la IA. "La gente en todo el mundo es más consciente del impacto potencial de la IA y está más nerviosa", dice el informe. Cita un aumento en el número de personas que piensan que la IA afectará sus vidas en los próximos tres a cinco años (66 por ciento, un aumento de seis puntos porcentuales) y en el número de personas que están nerviosas por la IA (52 por ciento, un aumento de 13 por ciento). puntos).

Otra fuente potencial de problemas para las empresas de IA proviene de la falta de estándares de evaluación para los LLM, una situación que permite a las empresas de IA seleccionar sus propios puntos de referencia para las pruebas. "Esta práctica complica los esfuerzos por comparar sistemáticamente los riesgos y limitaciones de los mejores modelos de IA", dice el informe.

El informe de HAI postula que la IA mejora la productividad de los trabajadores y acelera el progreso científico, citando GNoME de DeepMind, "que facilita el proceso de descubrimiento de materiales".

Si bien se ha demostrado que la automatización de la IA mejora la productividad en tareas específicas, su utilidad como fuente de ideas sigue siendo un tema de debate. Como nosotros reportaron Recientemente, todavía existe cierto escepticismo sobre el valor de las predicciones asistidas por IA para nuevos materiales viables, por ejemplo.

Sea como fuere, se están haciendo grandes apuestas por la IA. Las inversiones en IA generativa se multiplicaron por ocho, de 3 millones de dólares en 2022 a 25.2 millones de dólares en 2023. Y Estados Unidos es actualmente la principal fuente de sistemas de IA, con 61 modelos de IA notables en 2023, en comparación con 21 de la Unión Europea y 15 de China.

"La IA se enfrenta a dos futuros interrelacionados", escriben Clark y Perrault. “En primer lugar, la tecnología sigue mejorando y se utiliza cada vez más, lo que tiene importantes consecuencias para la productividad y el empleo. Se le puede dar tanto un buen como un mal uso. En el segundo futuro, la adopción de la IA estará limitada por las limitaciones de la tecnología”.

En los próximos años deberíamos ver cuál de esos dos futuros dominará. ®

punto_img

Información más reciente

punto_img

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?