Inteligência de dados generativa

A inteligência artificial é um risco

Data:

Comentário A inteligência artificial, ou seja, grandes modelos fundamentais que prevêem texto e podem categorizar imagens e fala, parece mais um passivo do que um trunfo.

Até agora, o dano do dólar foi menor. Em 2019, um motorista de Tesla que dirigia seu veículo com a ajuda do software Autopilot da montadora ultrapassou o sinal vermelho e bateu em outro veículo. Os ocupantes morreram e o motorista do Tesla na semana passada foi ordenado pagar $ 23,000 em restituição.

Tesla na mesma época emitiu um recall de dois milhões de veículos para revisar seu software de piloto automático em resposta a uma investigação da Administração Nacional de Segurança de Tráfego Rodoviário dos EUA (NHTSA) que concluiu que faltavam controles de segurança do piloto automático.

Vinte e três mil dólares não é muito para duas vidas, mas as famílias envolvidas estão a intentar ações civis contra o condutor e contra a Tesla, pelo que o custo pode aumentar. E dizem que há pelo menos uma dúzia de ações judiciais envolvendo o Autopilot nos EUA.

Enquanto isso, no setor de saúde, a UnitedHealthcare está sendo processado porque o modelo nH Predict AI adquirido por meio da compra da Navihealth em 2020 tem supostamente negado os cuidados pós-agudos necessários aos idosos segurados.

Restrições necessárias

As empresas que vendem modelos e serviços de IA entendem claramente que há um problema. Eles se referem a “guarda-corpos” colocados em torno de modelos fundamentais para ajudá-los a permanecer na pista – mesmo que estes não trabalhe muito bem. Precauções deste tipo seriam desnecessárias se estes modelos não contivessem material de abuso sexual infantil e uma panóplia de outros conteúdos tóxicos.

É como se os desenvolvedores de IA lessem o texto do escritor Alex Blechman postagem viral sobre empresas de tecnologia interpretando o conto de advertência “Não crie o Torment Nexus” como um roteiro de produto e dizendo: “Parece bom para mim”.

É claro que existem referências literárias mais antigas que se adequam à IA, como Frankenstein de Mary Shelley ou Caixa de Pandora – uma opção particularmente boa, dado que os modelos de IA são frequentemente referidos como caixas negras devido à falta de transparência sobre o material de formação.

Até agora, a inescrutabilidade dos modelos comerciais repletos de conteúdos nocivos não afetou muito as empresas. Há um recente reivindicar por Chris Bakke, fundador e CEO da Laskie (adquirida este ano por uma empresa que se autodenomina X), que um chatbot da GM usado por uma concessionária de automóveis em Watsonville, Califórnia, foi convencido a concordar em vender um Chevy Tahoe 2024 por US $ 1 com um pouco de engenharia rápida. Mas a concessionária provavelmente não cumprirá esse compromisso.

Ainda assim, o risco de confiar em modelos de IA é suficiente para que Google, Microsoft e Antrópico ofereceram-se para indenizar os clientes por reivindicações de direitos autorais (que são numerosas e em grande parte não resolvidas). Isso não é algo que você faz, a menos que haja uma chance de responsabilidade.

Regulamento

As autoridades ainda estão tentando descobrir como a responsabilidade pela IA deve ser avaliada. Consideremos como a Comissão Europeia enquadrou a questão enquanto trabalha para formular um quadro jurídico viável para a inteligência artificial:

“As atuais regras de responsabilidade, em particular as regras nacionais baseadas na culpa, não estão adaptadas para lidar com pedidos de indemnização por danos causados ​​por produtos/serviços habilitados para IA”, a Comissão dito [PDF] no ano passado. “De acordo com essas regras, as vítimas precisam provar uma ação/omissão ilícita da pessoa que causou o dano. As características específicas da IA, incluindo a autonomia e a opacidade (o chamado efeito de ‘caixa negra’), tornam difícil ou proibitivamente dispendioso identificar a pessoa responsável e provar os requisitos para uma reivindicação de responsabilidade bem-sucedida.”

E os legisladores dos EUA proposto uma estrutura bipartidária de IA para “garantir que as empresas de IA possam ser responsabilizadas por meio da aplicação de órgãos de supervisão e direitos de ação privados quando seus modelos e sistemas violam a privacidade, violam os direitos civis ou de outra forma causam danos reconhecíveis”.

Não fique muito entusiasmado por ver executivos de empresas de IA atrás das grades: o envolvimento dos líderes da indústria de IA neste processo sugere que quaisquer regras que surjam serão tão eficazes como outros quadros regulamentares que foram desrespeitados por lobistas.

Mas a excitação é parte do problema: há muito entusiasmo sobre os papagaios estocásticos, como são chamados os modelos de IA.

Os modelos de IA têm valor real em alguns contextos, conforme observado pela empresa de segurança Socket, que usou o ChatGPT para sinalizador de ajuda vulnerabilidades de software. Eles fizeram maravilhas no reconhecimento de fala, tradução e reconhecimento de imagens, em detrimento dos transcritores e dos quebra-cabeças CAPTCHA. Eles lembraram aos veteranos da indústria como era divertido brincar com Eliza, um dos primeiros chatbots. Eles parecem ter utilidade real em trabalhos de apoio à decisão, desde que haja um ser humano envolvido. E eles pegaram encantamentos complexos de linha de comando, com seus diversos sinalizadores e parâmetros, e os transformaram em prompts de texto igualmente complexos que podem durar parágrafos.

Mas a automação possibilitada pela IA tem um custo. Em um recente artigo para a revista de ficção científica Locus, o autor e ativista Cory Doctorow argumentou: “As empresas de IA estão implicitamente apostando que seus clientes comprarão IA para automação altamente consequente, demitirão trabalhadores e causarão danos físicos, mentais e econômicos a seus próprios clientes como resultado , escapando de alguma forma da responsabilidade por esses danos.”

Doctorow não acredita que exista um mercado significativo para serviços de IA em empresas de alto valor, devido aos riscos, e acredita que estamos em uma situação difícil. Bolha de IA. Ele aponta a GM Cruise como exemplo, observando que o modelo de negócios da empresa de automóveis autônomos – no limbo devido a uma lesão num pedestre e recall – equivale a substituir cada motorista de baixa remuneração por 1.5 supervisores remotos mais caros, sem excluir a possibilidade de acidentes e ações judiciais associadas.

Sobrecarga

Pelo menos há algum potencial para negócios de baixo valor associados à IA. Isso envolve pagar mensalmente para acessar uma API para bate-papo impreciso, geração algorítmica de imagens que coopta estilos de artistas sem permissão ou gerando centenas de sites de notícias falsas (ou Phoenesse) de modo que "inunda a zona” com desinformação.

Parece improvável que o Arena Group reivindicar O fato de sua plataforma de IA poder reduzir o tempo necessário para criar artigos para publicações como a Sports Illustrated em 80-90 por cento melhorará a satisfação do leitor, a fidelidade à marca ou a qualidade do conteúdo. Mas talvez a geração de mais artigos do que o humanamente possível nas centenas de títulos da empresa leve a mais visualizações de páginas por bots e a mais receitas de anúncios programáticos de compradores de anúncios ingênuos demais para entender.

Parte do problema é que os principais promotores de IA – Amazon, Google, Nvidia e Microsoft – operam plataformas em nuvem ou vendem hardware GPU. Eles são os fornecedores picaretas da corrida do ouro da IA, que querem apenas vender seus serviços em nuvem ou kit de processamento de números. Eles estavam todos a bordo do blockchain express e da supremacia da criptomoeda até que essa ilusão desaparecesse.

Eles estão ainda mais entusiasmados em ajudar as empresas a executar cargas de trabalho de IA, úteis ou não. Eles estão simplesmente semeando a nuvem, na esperança de direcionar os negócios para suas operações de aluguel de processador. Da mesma forma, as startups de aprendizagem automática sem infraestrutura esperam que o discurso ofegante sobre tecnologia transformacional aumente a avaliação da sua empresa para recompensar os primeiros investidores.

A mania da IA ​​também pode ser atribuída, em parte, ao esforço perpétuo da indústria tecnológica para responder “O que vem a seguir?” durante um período de estase prolongada. Apple, Google, Amazon, Meta, Microsoft e Nvidia todos têm feito o possível para evitar uma concorrência significativa e, desde o início da era da nuvem e da mobilidade, em meados dos anos 2000, têm se saído bastante bem. Não que o comportamento anticompetitivo seja algo novo – lembre-se da indústria de 2010 assentamento com o Departamento de Justiça dos EUA sobre os acordos entre Adobe, Google, Intel, Intuit e Pixar para evitar a aquisição de talentos uns dos outros.

A Microsoft fez grande parte de sua integração de IA com o Bing, há muito ofuscada pela Pesquisa Google, alegando que é “reinventando a pesquisa.” Mas não mudou muita coisa desde então – Bing alegadamente não conseguiu conquistar nenhuma participação de mercado do Google, num momento em que existe um sentimento generalizado de que a Pesquisa Google – agora também repleta de IA – está piorando.

Que venha 2024

Para descobrir o que vem a seguir, teremos que esperar que o Departamento de Justiça e os reguladores de outras partes do mundo forcem mudanças através de antitrust execução e ações judiciais. Porque embora o Google tenha controle sobre a distribuição de pesquisas – por meio de acordos com a Apple e outros – e publicidade digital – por meio de seu acordo com a Meta (liberado nos EUA, ainda sob investigação na Europa e no Reino Unido) e outras atividades que irritado o interesse do Departamento de Justiça – nem o negócio de buscas nem o negócio de publicidade parecem receptivos a novos desafiantes, não importa quanto molho de IA seja adicionado.

A IA é um passivo não apenas no sentido financeiro, mas também no sentido ético. Promete poupanças salariais – apesar sendo extremamente caro em termos de Treinamento e Desenvolvimento e impacto ambiental – ao mesmo tempo que incentiva a indiferença ao trabalho humano, à propriedade intelectual, aos resultados prejudiciais e à precisão da informação. A IA convida as empresas a remover as pessoas da equação quando elas frequentemente agregam valor que não é óbvio no balanço patrimonial.

Há espaço para a IA ser genuinamente útil, mas ela precisa ser implantada para ajudar as pessoas, em vez de se livrar delas. ®

local_img

Inteligência mais recente

local_img