Inteligencia de datos generativa

Devaluar el contenido creado por la IA es perezoso e ignora la historia

Fecha:

Columna Han sido necesarios menos de dieciocho meses para que los medios generados por humanos y por IA se entremezclen de manera imposible. Algunos consideran que esto es completamente desmesurado y se niegan a tener nada que ver con ningún medio que tenga contenido generativo. Esa postura ideológica traiciona una falsa esperanza: que se trata de una tendencia pasajera, una obsesión por las últimas novedades, y que pasará.

No lo es y no lo será. Lo que tiene que pasar es cómo abordamos el contenido generado por IA.

Para entender por qué, sepa que mi editor regresó recientemente de la Feria del Libro de Londres con una gran sugerencia: grabar una versión en audiolibro de mi último libro. trabajo impreso. Tuvimos una videollamada para analizar todos los detalles. ¿Me gustaría grabarlo yo mismo? Sí mucho. ¿Cuándo podría empezar? Casi inmediatamente. Y tuve una gran idea: usaré el genial software de síntesis de voz AI en once laboratorios para sintetizar voces únicas para los tres grandes chatbots: ChatGPT, Copilot y Gemini.

La llamada quedó en silencio. Mi editor pareció avergonzado. "Mira, Mark, no podemos hacer eso".

"¿Por qué no? ¡Sonará genial!”

"No es eso. Audible no nos permitirá cargar nada generado por IA”.

Una política anti-IA tiene sentido cuando existe una posibilidad razonable de verse inundado por decenas de miles de textos con voz de IA; ese es casi con certeza el temor de Audible. (También está el problema de dejar sin trabajo a los locutores, aunque los empleadores parecen bastante menos preocupado sobre la pérdida de empleos.)

Mi editor obedecerá la regla de Audible. Pero a medida que se vuelve cada vez más difícil diferenciar entre voces humanas y sintéticas, otros creadores de audiolibros pueden adoptar un enfoque más despreocupado.

Dado lo rápido que está mejorando el campo de la IA generativa, Hume.AILa voz “empática” de Washington es el último avance notable: esta política parece más un recurso provisional que una solución sostenible.

Puede parecer que la IA generativa y las herramientas que permite han aparecido prácticamente de la noche a la mañana. De hecho, generar un flujo de recomendaciones es donde todo comenzó, allá por los días de Luciérnaga. El texto, las imágenes y las voces pueden ser lo que consideramos IA generativa, pero en realidad son simplemente los resultados más recientes y más ruidosos de casi tres décadas de desarrollo.

Aunque satisfactorio, trazar una línea entre lo “real” y lo “falso” delata una ingenuidad que raya en la ignorancia deliberada sobre cómo funciona nuestro mundo. En todo esto están las manos humanas –tanto como títere como titiritero– trabajando junto a sistemas algorítmicos que, desde sus orígenes, han ido generando lo que vemos y oímos. No podemos separar claramente al ser humano de la máquina en todo esto, y nunca pudimos hacerlo.

Si no podemos separarnos de los productos de nuestras herramientas, al menos podemos ser transparentes sobre esas herramientas y cómo se han utilizado. El periódico australiano Nine News intentó recientemente achacar la manipulación sexual de una fotografía retocada de un político a las funciones generativas de “relleno” y “relleno” de Photoshop, sólo para que Adobe rápidamente señalara que Photoshop no haría eso sin la guía de un operador humano.

En ningún momento se informó al público de que la imagen transmitida por Nine había sido mejorada por IA, lo que apunta al meollo de la cuestión. Sin transparencia, perdemos nuestra capacidad de decidir si podemos confiar o no en una imagen o en una emisora.

Mi colega Sally Domínguez Recientemente ha estado abogando por una “clasificación de confianza”, un dial que se desliza entre “contenido humano 100 por ciento generado por IA” y “contenido humano totalmente artesanal” para todos los medios. En teoría, ofrecería a los creadores la oportunidad de ser completamente transparentes tanto sobre el proceso como sobre el producto de los medios, y otra oportunidad para que los consumidores de los medios sean sensatos y estén anclados en la comprensión.

Eso es algo que deberíamos haber exigido cuando nuestras redes sociales se volvieron algorítmicas. En cambio, tenemos secreto y vigilancia, patrones oscuros y adicción. Siempre invisible y omnipresente, el algoritmo podía funcionar libremente.

En este breve y fugaz momento –mientras todavía podemos conocer la diferencia entre el contenido generado por humanos y el generado por IA– necesitamos comenzar la práctica de etiquetar todos los medios que creamos e interrogar sospechosamente a cualquier medio que se niegue a darnos sus detalles. Si perdemos esta oportunidad de incorporar la práctica de la transparencia, podríamos encontrarnos realmente perdidos. ®

punto_img

Información más reciente

punto_img

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?