Inteligência de dados generativa

Os usuários do AI Assistant podem desenvolver um ‘apego emocional’ a eles, alerta o Google – Decrypt

Data:

Assistentes pessoais virtuais alimentados por inteligência artificial estão se tornando onipresentes em plataformas tecnológicas, com todas as grandes empresas de tecnologia adicionando IA aos seus serviços e dezenas de serviços especializados caindo no mercado. Embora imensamente úteis, os pesquisadores do Google dizem que os humanos podem se tornar muito apegados emocionalmente a eles, levando a uma série de consequências sociais negativas.

Um novo trabalho de pesquisa do laboratório de pesquisa DeepMind AI do Google destaca os benefícios potenciais de assistentes de IA avançados e personalizados para transformar vários aspectos da sociedade, dizendo que eles “poderiam alterar radicalmente a natureza do trabalho, da educação e das atividades criativas, bem como a forma como nos comunicamos, coordenamos e negociamos uns com os outros, influenciando, em última análise, quem queremos ser e nos tornar.”

Este impacto descomunal, claro, poderá ser uma faca de dois gumes se o desenvolvimento da IA ​​continuar a avançar sem um planeamento cuidadoso.

Um risco importante? A formação de laços inadequados e estreitos – que podem ser exacerbados se o assistente for apresentado a uma representação ou rosto humano. “Esses agentes artificiais podem até professar sua suposta afeição platônica ou romântica pelo usuário, estabelecendo as bases para que os usuários formem ligações emocionais duradouras com a IA”, diz o jornal.

Se não for controlada, tal ligação poderá levar à perda de autonomia do utilizador e à perda de laços sociais, porque a IA poderá substituir a interacção humana.

Este risco não é puramente teórico. Mesmo quando a IA estava num estado um tanto primitivo, um chatbot de IA era influente o suficiente para convencer um usuário a cometer suicídio depois de um longo bate-papo em 2023. Oito anos atrás, uma assistente de e-mail com tecnologia de IA chamada “Amy Ingram” era realista o suficiente para levar alguns usuários a enviar bilhetes de amor e até mesmo tente visitá-la no trabalho.

Iason Gabriel, cientista pesquisador da equipe de pesquisa ética da DeepMind e coautor do artigo, não respondeu a Decifrar pedido de comentário.

Num tweet, no entanto, Garbriel alertou que “formas de assistente cada vez mais pessoais e humanas introduzem novas questões em torno do antropomorfismo, privacidade, confiança e relações apropriadas com a IA”.

Porque “milhões de assistentes de IA poderiam ser implantados a um nível social onde interagiriam uns com os outros e com não utilizadores”, Gabriel disse acreditar na necessidade de mais salvaguardas e de uma abordagem mais holística a este novo fenómeno social.

O artigo de pesquisa também discute a importância do alinhamento de valores, segurança e uso indevido no desenvolvimento de assistentes de IA. Embora os assistentes de IA possam ajudar os utilizadores a melhorar o seu bem-estar, aumentar a sua criatividade e otimizar o seu tempo, os autores alertaram para riscos adicionais, como o desalinhamento com os interesses do utilizador e da sociedade, a imposição de valores a outros, a utilização para fins maliciosos e a vulnerabilidade. a ataques adversários.

Para enfrentar esses riscos, a equipe da DeepMind recomenda o desenvolvimento de avaliações abrangentes para assistentes de IA e a aceleração do desenvolvimento de assistentes de IA socialmente benéficos.

“Atualmente estamos no início desta era de mudanças tecnológicas e sociais. Temos, portanto, uma janela de oportunidade para agir agora – como desenvolvedores, pesquisadores, formuladores de políticas e partes interessadas públicas – para moldar o tipo de assistentes de IA que queremos ver no mundo.”

O desalinhamento da IA ​​pode ser mitigado por meio do Aprendizado por Reforço por meio de Feedback Humano (RLHF), que é usado para treinar modelos de IA. Especialistas como Paul Christiano, que dirigiu a equipe de alinhamento de modelos de linguagem na OpenAI e agora lidera o Alignment Research Center, sem fins lucrativos, alertam que o gerenciamento inadequado dos métodos de treinamento de IA pode terminar em catástrofe.

“Acho que talvez haja algo como 10-20% de chance de a IA assumir o controle, [com] muitos [ou] a maioria dos humanos mortos”, Paul Christiano dito no podcast Bankless do ano passado. “Eu levo isso muito a sério.”

Editado por Ryan Ozawa.

Fique por dentro das notícias sobre criptomoedas, receba atualizações diárias em sua caixa de entrada.

local_img

Inteligência mais recente

local_img

Fale Conosco

Olá! Como posso ajudá-lo?