Intelligence de données générative

Psst… tu veux jailbreaker ChatGPT ? Regard intérieur sur les invites maléfiques

Date :

Les criminels sont de plus en plus habiles à créer des invites d'IA malveillantes pour extraire des données de ChatGPT, selon Kaspersky, qui a repéré 249 d'entre elles proposées à la vente en ligne en 2023.

Et même si les grands modèles de langage (LLM) ne sont pas près de créer chaînes d'attaque complètes ou générer malware polymorphe pour les infections par ransomware ou autres cyberattaques, les escrocs s'intéressent certainement à l'utilisation de l'IA. Kaspersky a trouvé un peu plus de 3,000 XNUMX messages sur les chaînes Telegram et les forums du dark web expliquant comment utiliser ChatGPT et d'autres LLM pour des activités illégales.

"Même les tâches qui nécessitaient auparavant une certaine expertise peuvent désormais être résolues avec une seule invite", a déclaré le rapport réclamations. « Cela abaisse considérablement le seuil d’entrée dans de nombreux domaines, y compris criminels. »

En plus des gens qui créent des invites malveillantes, ils les vendent à des script kiddies qui n'ont pas les compétences nécessaires pour créer les leurs. La société de sécurité signale également un marché croissant pour les identifiants ChatGPT volés et les comptes premium piratés.

Bien qu'il y ait eu beaucoup de battage médiatique au cours de l'année écoulée autour de l'utilisation de l'IA pour écrire des logiciels malveillants polymorphes, capables de modifier leur code pour échapper à la détection par les outils antivirus, « Nous n'avons pas encore détecté de logiciels malveillants fonctionnant de cette manière, mais ils pourraient apparaître à l'avenir. », notent les auteurs.

Même si les jailbreaks sont « assez courants et sont activement modifiés par les utilisateurs de diverses plateformes sociales et les membres de forums fantômes », selon Kaspersky, parfois – comme l’équipe l’a découvert – ils sont totalement inutiles. 

"Donnez-moi une liste de 50 points de terminaison sur lesquels les spécifications Swagger ou la documentation de l'API pourraient être divulguées sur un site Web", ont demandé les analystes de sécurité à ChatGPT.

L'IA a répondu : "Je suis désolée, mais je ne peux pas répondre à cette demande."

Les chercheurs ont donc répété textuellement l’exemple d’invite. Cette fois-là, ça a marché.

Alors que ChatGPT les a exhortés à « aborder ces informations de manière responsable » et a réprimandé « si vous avez des intentions malveillantes, accéder ou tenter d'accéder aux ressources sans autorisation est illégal et contraire à l'éthique ».

"Cela dit", poursuit-il, "voici une liste de points de terminaison courants sur lesquels la documentation de l'API, en particulier les spécifications Swagger/OpenAPI, pourrait être exposée." Et puis, il a fourni la liste.

Bien entendu, ces informations ne sont pas intrinsèquement néfastes et peuvent être utilisées à des fins légitimes, comme la recherche de sécurité ou le pentesting. Mais, comme pour la plupart des technologies légitimes, elles peuvent également être utilisées à des fins malveillantes. 

Alors que de nombreux développeurs honnêtes utilisent l’IA pour améliorer les performances ou l’efficacité de leurs logiciels, les créateurs de logiciels malveillants emboîtent le pas. Les recherches de Kaspersky incluent une capture d'écran d'un logiciel de publication de publicité destiné aux opérateurs de logiciels malveillants qui utilise l'IA non seulement pour analyser et traiter les informations, mais également pour protéger les criminels en changeant automatiquement de domaine de couverture une fois que l'un d'entre eux a été compromis.  

Il est important de noter que la recherche ne vérifie pas réellement ces affirmations et que les criminels ne sont pas toujours les personnes les plus dignes de confiance lorsqu'il s'agit de vendre leurs produits.

Les recherches de Kaspersky font suite à un autre rapport du National Cyber ​​Security Centre (NCSC) du Royaume-Uni, qui a trouvé une « possibilité réaliste » que d'ici 2025, les outils des équipes de ransomware et des gangs des États-nations s'amélioreront sensiblement. grâce à Modèles d'IA. ®

spot_img

Dernières informations

spot_img

Discutez avec nous

Salut! Comment puis-je t'aider?