Inteligência de dados generativa

Desvalorizar o conteúdo criado pela IA é preguiçoso e ignora a história

Data:

Coluna Demorou menos de dezoito meses para que a mídia gerada por humanos e pela IA se tornasse impossivelmente misturada. Alguns acham isso totalmente injusto e se recusam a ter qualquer relação com qualquer mídia que contenha qualquer conteúdo gerador. Essa postura ideológica trai uma falsa esperança: que esta é uma tendência passageira, uma obsessão pelas novidades mais recentes, e que irá passar.

Não é, e não será. O que precisa passar é como abordamos o conteúdo gerado por IA.

Para entender o porquê, saiba que minha editora retornou recentemente da Feira do Livro de Londres com uma ótima sugestão: gravar uma versão em audiolivro do meu último trabalho impresso. Fizemos uma videochamada para resolver todos os detalhes. Eu gostaria de gravar sozinho? Sim, muito. Quando eu poderia começar? Quase imediatamente. E tive uma ótima ideia: usarei o software de síntese de voz de IA muito legal em Onze laboratórios para sintetizar vozes exclusivas para os três grandes chatbots – ChatGPT, Copilot e Gemini.

A ligação ficou silenciosa. Meu editor parecia envergonhado. “Olha, Mark, não podemos fazer isso.”

"Por que não? Vai soar ótimo!

"Não é isso. A Audible não nos permitirá fazer upload de nada gerado por IA.”

Uma política anti-IA faz sentido quando há uma chance razoável de ser inundado por dezenas de milhares de textos expressos por IA – esse é quase certamente o medo da Audible. (Há também a questão de tirar os dubladores do trabalho – embora os empregadores pareçam um pouco menos preocupado sobre perdas de empregos.)

Meu editor obedecerá às regras da Audible. Mas à medida que se torna cada vez mais difícil diferenciar entre vozes humanas e sintéticas, outros criadores de audiolivros podem adotar uma abordagem mais despreocupada.

Dada a rapidez com que o campo da IA ​​generativa está a melhorar – Hume.AIa voz “empática” da ONU é o mais recente salto em frente – esta política parece mais um paliativo do que uma solução sustentável.

Pode parecer que a IA generativa e as ferramentas que ela permite surgiram praticamente da noite para o dia. Na verdade, foi na geração de um fluxo de recomendações que tudo começou – na época de Vaga-lume. Texto, imagens e vozes podem ser o que consideramos IA generativa, mas na realidade são simplesmente os resultados mais recentes e mais ruidosos de quase três décadas de desenvolvimento.

Embora seja satisfatório, traçar uma linha entre o “real” e o “falso” revela uma ingenuidade que beira a ignorância intencional sobre como o nosso mundo funciona. As mãos humanas estão em tudo isto – tanto como marionetas como como marionetistas – trabalhando ao lado de sistemas algorítmicos que, desde as suas origens, têm gerado o que vemos e ouvimos. Não podemos separar claramente o humano da máquina em tudo isso – e nunca poderíamos.

Se não podemos nos separar dos produtos das nossas ferramentas, podemos pelo menos ser transparentes sobre essas ferramentas e como elas têm sido usadas. O Nine News da Austrália recentemente tentou culpar a sexagem de uma fotografia retocada de um político nos recursos generativos de “preenchimento” e “preenchimento” do Photoshop, apenas para que a Adobe rapidamente apontasse que Photoshop não faria isso sem orientação de um operador humano.

Em nenhum momento o público foi informado de que a imagem transmitida pela Nine havia sido aprimorada por IA, o que aponta para o cerne da questão. Sem transparência, perdemos a nossa capacidade de decidir se podemos ou não confiar numa imagem – ou numa emissora.

O meu colega Sally Dominguez tem defendido recentemente uma “triagem de confiança” – um dial que oscila entre “conteúdo 100% gerado por IA” e “conteúdo humano totalmente artesanal” para todas as mídias. Em teoria, ofereceria aos criadores uma oportunidade de serem completamente transparentes sobre o processo e o produto dos meios de comunicação, e outra para os consumidores de meios de comunicação serem sensatos e ancorados na compreensão.

Isso é algo que deveríamos ter exigido quando nossos feeds de mídia social se tornaram algorítmicos. Em vez disso, obtivemos sigilo e vigilância, padrões sombrios e vício. Sempre invisível e onipresente, o algoritmo poderia operar livremente.

Neste breve e evanescente momento – embora ainda possamos saber a diferença entre conteúdo humano e conteúdo gerado por IA – precisamos de começar a prática de rotular todos os meios de comunicação que criamos e interrogar de forma suspeita qualquer meio de comunicação que se recuse a fornecer-nos os seus detalhes. Se perdermos esta oportunidade de incorporar a prática da transparência, poderemos ficar verdadeiramente perdidos. ®

local_img

Inteligência mais recente

local_img