Intelligence de données générative

Dévaloriser le contenu créé par l’IA est paresseux et ignore l’histoire

Date :

Colonne Il a fallu moins de dix-huit mois pour que les médias générés par l’homme et l’IA se mélangent de manière impossible. Certains trouvent cela totalement inadmissible et refusent d’avoir quoi que ce soit à voir avec tout média contenant un contenu génératif. Cette position idéologique trahit un faux espoir : il s’agit d’une tendance passagère, d’une obsession pour la dernière nouveauté, et qui passera.

Ce n’est pas le cas, et ce ne sera pas le cas. Ce qui doit être adopté, c’est la manière dont nous abordons le contenu généré par l’IA.

Pour comprendre pourquoi, sachez que mon éditeur est récemment revenu de la Foire du livre de Londres avec une excellente suggestion : enregistrer une version audio de mon dernier travail imprimé. Nous avons eu un appel vidéo pour régler tous les détails. Est-ce que j'aimerais l'enregistrer moi-même ? Oui beaucoup. Quand pourrais-je commencer ? Presque immédiatement. Et j'ai eu une super idée : j'utiliserai le très cool logiciel de synthèse vocale AI de Onze laboratoires pour synthétiser des voix uniques pour les chatbots Big Three – ChatGPT, Copilot et Gemini.

L'appel est resté silencieux. Mon éditeur avait l'air embarrassé. "Écoute, Mark, nous ne pouvons pas faire ça."

"Pourquoi pas? Ça va sonner bien ! »

"Ce n'est pas ça. Audible ne nous permet pas de télécharger quoi que ce soit généré par l'IA.

Une politique anti-IA a du sens là où il y a une chance raisonnable d’être submergée par des dizaines de milliers de textes vocaux par l’IA – c’est presque certainement la crainte d’Audible. (Il y a aussi le problème de mettre les artistes interprètes au chômage – bien que les employeurs semblent plutôt moins préoccupé sur les pertes d'emploi.)

Mon éditeur obéira à la règle d'Audible. Mais comme il devient de plus en plus difficile de faire la différence entre les voix humaines et synthétiques, d’autres créateurs de livres audio pourraient adopter une approche plus insouciante.

Compte tenu de la rapidité avec laquelle le domaine de l’IA générative s’améliore – Hume.AILa voix « empathique » de est le dernier pas en avant notable – cette politique ressemble plus à un pis-aller qu'à une solution durable.

Il peut sembler que l’IA générative et les outils qu’elle permet sont apparus pratiquement du jour au lendemain. En fait, c’est grâce à la génération d’un flux de recommandations que tout a commencé – à l’époque de Luciole. Le texte, les images et les voix sont peut-être ce que nous considérons comme une IA générative, mais en réalité, ils ne sont que les résultats les plus récents et les plus retentissants de près de trois décennies de développement.

Bien que satisfaisant, tracer une ligne entre le « vrai » et le « faux » trahit une naïveté confinant à une ignorance volontaire du fonctionnement de notre monde. Les mains humaines sont présentes dans tout cela – à la fois en tant que marionnettes et marionnettistes – travaillant aux côtés de systèmes algorithmiques qui, depuis leurs origines, génèrent ce que nous voyons et entendons. Dans tout cela, nous ne pouvons pas séparer clairement l’humain de la machine – et nous ne le pourrons jamais.

Si nous ne pouvons pas nous séparer des produits de nos outils, nous pouvons au moins être transparents sur ces outils et sur la manière dont ils ont été utilisés. Le journal australien Nine News a récemment tenté d'attribuer le sex-up d'une photographie retouchée d'un homme politique aux fonctionnalités génératives de « remplissage » et de « remplissage » de Photoshop, mais Adobe a rapidement souligné que Photoshop ne ferait pas ça sans l'aide d'un opérateur humain.

À aucun moment le public n’a été informé que l’image diffusée par Nine avait été améliorée par l’IA, ce qui montre le cœur du problème. Sans transparence, nous perdons notre pouvoir de décider si nous pouvons ou non faire confiance à une image – ou à un diffuseur.

Mon collègue Sally Dominguez a récemment plaidé en faveur d’un « Triage de la confiance » – un cadran qui oscille entre « 100 % généré par l’IA » et « un contenu humain entièrement artisanal » pour tous les médias. En théorie, cela offrirait aux créateurs une opportunité d’être complètement transparents sur le processus médiatique et le produit, et une autre aux consommateurs de médias d’être sensés et ancrés dans la compréhension.

C'est quelque chose que nous aurions dû exiger lorsque nos flux de médias sociaux sont devenus algorithmiques. Au lieu de cela, nous avons secret et surveillance, motifs sombres et dépendance. Toujours invisible et omniprésent, l’algorithme pourrait fonctionner librement.

En ce moment bref et en voie de disparition – alors que nous pouvons encore faire la différence entre le contenu généré par l’homme et celui généré par l’IA – nous devons commencer à étiqueter tous les médias que nous créons et interroger avec méfiance tout média qui refuse de nous donner ses détails. Si nous manquons cette occasion d’ancrer la pratique de la transparence, nous pourrions nous retrouver bel et bien perdus. ®

spot_img

Dernières informations

spot_img