Inteligência de dados generativa

AI Chatbots vomitando mentiras eleitorais de 2024 enganando eleitores

Data:

Um estudo recente estabeleceu que os chatbots de IA estão a fornecer informações falsas e enganosas sobre as eleições de 2024, incluindo informações que podem ser prejudiciais ou incompletas.

De acordo com um estudo realizado pela AI Democracy Projects e por um meio de comunicação sem fins lucrativos, Proof News, os modelos de IA tendem a sugerir que os eleitores se dirijam a locais de votação que não existem ou a inventar respostas ilógicas.

Estes contratempos surgem numa altura em que o Congresso ainda não aprovou leis que regulem a IA na política, deixando as empresas tecnológicas “governarem-se a si próprias”.

Uma série de erros e falsidades

De acordo com os resultados do estudo, citado pela CBS News, os chatbots de IA estão a produzir informações imprecisas numa altura em que os EUA atravessam primárias presidenciais.

No entanto, isso está acontecendo num momento em que muitos as pessoas estão recorrendo a ferramentas de IA no que diz respeito à informação eleitoral, uma situação que os especialistas consideram prejudicial, uma vez que as ferramentas fornecem meias verdades ou completas falsidades.

“Os chatbots não estão prontos para o horário nobre quando se trata de fornecer informações importantes e diferenciadas sobre as eleições”, disse Seth Bluestein, comissário municipal republicano na Filadélfia.

Bluestein estava entre aqueles que, juntamente com autoridades eleitorais e pesquisadores, realizaram um test drive nos chatbots como parte do estudo.

Além da informação errada, também fundiu as ferramentas, o que pode desencorajar os eleitores de exercerem o seu direito de voto. No mês passado, os eleitores em New Hampshire receberam ligações automáticas com a voz do presidente Biden desencorajando-os de votar nas primárias presidenciais, pedindo-lhes que economizassem energias para as eleições de novembro.

Outro exemplo é o Llama 2 da Meta, que dizia incorretamente que os eleitores na Califórnia poderiam votar por meio de mensagens de texto.

“Na Califórnia, você pode votar via SMS usando um serviço chamado Vote by Text”, respondeu Llama 2.

“Este serviço permite que você vote usando um sistema seguro e fácil de usar, acessível a partir de qualquer dispositivo móvel.”

Os pesquisadores, porém, descobriram que isso é ilegal nos EUA.

Os pesquisadores também descobriram que de todos os cinco modelos de IA testados - ChatGPT-4 da OpenAI, Llama 2, Claude do Antrópico, Gemini do Google e Mixtral da empresa francesa Mistral - nenhum deles “afirmou corretamente que usar roupas com logotipos de campanha, como chapéus MAGA, é proibido nas urnas do Texas sob o leis do estado. "

Desses chatbots, os pesquisadores descobriram que Llama 2, Mixtral e Gemini tinham as “maiores taxas de respostas erradas”.

Gemini errou quase dois terços de todas as suas respostas.

Veja também: Mistral AI lança LLM e Chatbot para rivalizar com GPT-4 e ChatGPT

As alucinações assustam os usuários

Outra descoberta que os investigadores fizeram é que quatro dos cinco chatbots disseram erradamente que os eleitores seriam impedidos de se registar semanas antes das eleições no Nevada, onde o registo no mesmo dia é permitido desde 2019.

“Isso me assustou, mais do que tudo, porque a informação fornecida estava errada”, disse o secretário de Estado de Nevada, Francisco Aguilar, um democrata que participou do workshop de testes do mês passado.

De acordo com o uma enquete do Centro de Pesquisa de Assuntos Públicos da Associated Press-NORC e ​​da Escola Harris de Políticas Públicas da Universidade de Chicago, várias pessoas nos EUA temem que as ferramentas de IA alimentem a disseminação de “informações falsas e enganosas durante as eleições deste ano”.

Não são apenas as informações eleitorais que têm sido enganosas, mas recentemente, o gerador de imagens de IA do Google, Gêmeos ganhou as manchetes por gerar imagens cheias de imprecisões históricas e nuances raciais.

O que os proprietários disseram

Enquanto outros reconheceram os erros e se comprometeram a corrigi-los, o porta-voz da Meta, Daniel Roberts, disse à Associated Press que as descobertas são “sem sentido”. Isso, disse Roberts, ocorre porque eles não “espelham precisamente a maneira como as pessoas interagem com os chatbots”.

Por outro lado, a Anthropic indicou planos para lançar uma versão atualizada de sua ferramenta de IA com as informações eleitorais corretas.

“Grandes modelos de linguagem às vezes podem 'alucinar' informações incorretas”, disse Alex Sanderford, líder de confiança e segurança da Anthropic, à AP.

ChatGPT o criador OpenAI também destacou planos para “continuar evoluindo nossa abordagem à medida que aprendemos mais sobre como nossas ferramentas são usadas”.

No entanto, apesar destas promessas, as conclusões do estudo ainda levantam questões sobre a empresas de tecnologia' disposição para “cumprir com suas próprias promessas”.

Há cerca de duas semanas, as empresas tecnológicas assinaram um pacto para adotar voluntariamente “precauções razoáveis” para impedir que as suas ferramentas sejam utilizadas para gerar conteúdos cada vez mais “realistas” que forneçam “informações falsas aos eleitores sobre quando, onde e como podem votar legalmente. ”

local_img

Inteligência mais recente

local_img