Inteligência de dados generativa

Microsoft, OpenAI: Estados-nação estão armando IA em ataques cibernéticos

Data:

Ameaças persistentes avançadas (APTs) alinhadas com a China, o Irão, a Coreia do Norte e a Rússia estão todas a utilizar grandes modelos de linguagem (LLMs) para melhorar as suas operações.

Novas postagens do blog de OpenAI e Microsoft revelam que cinco grandes atores de ameaças têm usado software OpenAI para pesquisa, fraude e outros fins maliciosos. Depois de identificá-los, a OpenAI fechou todas as suas contas.

Embora a perspectiva de operações cibernéticas de Estados-nação melhoradas pela IA possa à primeira vista parecer assustadora, há boas notícias: nenhum destes abusos de LLM observados até agora foi particularmente devastador.

“O uso atual da tecnologia LLM por agentes de ameaças revelou comportamentos consistentes com invasores que usam IA como outra ferramenta de produtividade”, observou a Microsoft em seu relatório. “A Microsoft e a OpenAI ainda não observaram técnicas de ataque ou abuso particularmente novas ou únicas habilitadas para IA, resultantes do uso de IA por agentes de ameaças.”

As APTs do Estado-nação usando OpenAI

As APTs de estados-nação que usam OpenAI hoje estão entre as mais notórias do mundo.

Considere o grupo que a Microsoft rastreia como Forest Blizzard, mas é mais conhecido como Fancy Bear. A unidade militar afiliada à Diretoria Principal do Estado-Maior General das Forças Armadas da Federação Russa (GRU), que hackeia o Comitê Nacional Democrata e aterroriza a Ucrânia, tem usado LLMs para tarefas básicas de script - manipulação de arquivos, seleção de dados, multiprocessamento e assim por diante – bem como coleta de inteligência, pesquisa de protocolos de comunicação por satélite e tecnologias de imagem de radar, provavelmente no que diz respeito à guerra em curso na Ucrânia.

Dois atores estatais chineses têm usado o ChatGPT recentemente: Charcoal Typhoon (também conhecido como Aquatic Panda, ControlX, RedHotel, BRONZE UNIVERSITY)e Salmon Typhoon (também conhecido como APT4, Maverick Panda).

O primeiro tem feito bom uso da IA ​​tanto para comportamentos maliciosos pré-comprometimento, coletando informações sobre tecnologias, plataformas e vulnerabilidades específicas, gerando e refinando scripts e gerando textos de engenharia social em idiomas traduzidos, quanto pós-comprometimento, realizando comandos, obtendo acesso mais profundo ao sistema e ganhando controle nos sistemas.

Salmon Typhoon concentrou-se principalmente em LLMs como uma ferramenta de inteligência, obtendo informações publicamente disponíveis sobre indivíduos de alto perfil, agências de inteligência, política interna e internacional e muito mais. Ele também tentou, em grande parte, sem sucesso, abusar do OpenAI para ajudar no desenvolvimento de código malicioso e na pesquisa de táticas furtivas.

Irã Tempestade de Areia Carmesim (Tartaruga, Gatinho Imperial, Liderc Amarelo) está usando OpenAI para desenvolver material de phishing – e-mails que fingem ser de uma agência de desenvolvimento internacional, por exemplo, ou de um grupo feminista – bem como trechos de código para auxiliar suas operações de web scraping, execução de tarefas quando os usuários fazem login em um aplicativo, e assim por diante.

Finalmente há Kim Jong-Un Granizo Esmeralda (Kimsuky, Velvet Chollima) que, como os outros APTs, recorre à OpenAI para tarefas básicas de script, geração de conteúdo de phishing e pesquisa de informações publicamente disponíveis sobre vulnerabilidades, bem como especialistas, grupos de reflexão e organizações governamentais preocupadas com questões de defesa e seu programa de armas nucleares.

A IA não está mudando o jogo (ainda)

Se esses muitos usos maliciosos da IA ​​parecem úteis, mas não são legais no nível da ficção científica, há uma razão para isso.

“Os atores de ameaças que são eficazes o suficiente para serem rastreados pela Microsoft provavelmente já são proficientes na criação de software”, explica Joseph Thacker, engenheiro principal de IA e pesquisador de segurança da AppOmni. “A IA generativa é incrível, mas principalmente ajuda os humanos a serem mais eficientes, em vez de fazer avanços. Acredito que esses agentes de ameaças estão usando LLMs para escrever código (como malware) mais rapidamente, mas isso não é visivelmente impactante porque eles já tinham malware. Eles ainda têm malware. É possível que eles consigam ser mais eficientes, mas no final das contas, eles ainda não estão fazendo nada de novo.”

Embora cauteloso em não exagerar o seu impacto, Thacker alerta que a IA ainda oferece vantagens para os atacantes. “Os malfeitores provavelmente conseguirão implantar malware em maior escala ou em sistemas para os quais anteriormente não tinham suporte. LLMs são muito bons em traduzir código de uma linguagem ou arquitetura para outra. Portanto, posso vê-los convertendo seus códigos maliciosos em novas linguagens nas quais antes não eram proficientes”, diz ele.

Além disso, “se um agente de ameaça encontrar um novo caso de uso, ele ainda poderá estar em sigilo e ainda não ter sido detectado por essas empresas, portanto não é impossível. Já vi agentes de IA totalmente autônomos que podem ‘hackear’ e encontrar vulnerabilidades reais, portanto, se algum malfeitor desenvolvesse algo semelhante, isso seria perigoso.”

Por estas razões acrescenta, simplesmente, que “as empresas podem permanecer vigilantes. Continue fazendo o básico certo.”

local_img

Inteligência mais recente

local_img