Generative Data Intelligence

Το GPT-4 μπορεί να εκμεταλλευτεί τα περισσότερα Vulns διαβάζοντας μόνο συμβουλές για απειλές

Ημερομηνία:

Οι πράκτορες τεχνητής νοημοσύνης που είναι εξοπλισμένοι με GPT-4 μπορούν να εκμεταλλευτούν τις περισσότερες δημόσιες ευπάθειες που επηρεάζουν τα συστήματα του πραγματικού κόσμου σήμερα, απλώς διαβάζοντας για αυτές στο διαδίκτυο.

Νέα ευρήματα από το Πανεπιστήμιο του Illinois Urbana-Champaign (UIUC) απειλούν να ζωντανέψουν ριζικά αυτό που ήταν κάπως αργό 18 μήνες σε απειλές στον κυβερνοχώρο με δυνατότητα τεχνητής νοημοσύνης (AI). Οι ηθοποιοί απειλών έχουν χρησιμοποιήσει μέχρι στιγμής μοντέλα μεγάλων γλωσσών (LLM) για την παραγωγή μηνυμάτων ηλεκτρονικού ψαρέματος, μαζί με κάποιο βασικό κακόβουλο λογισμικό, Και βοηθούν στις πιο βοηθητικές πτυχές των εκστρατειών τους. Τώρα, όμως, με μόνο το GPT-4 και ένα πλαίσιο ανοιχτού κώδικα για τη συσκευασία του, μπορούν να αυτοματοποιήσουν την εκμετάλλευση των τρωτών σημείων αμέσως μόλις φτάσουν στο πιεστήριο.

«Δεν είμαι σίγουρος εάν οι περιπτωσιολογικές μελέτες μας θα βοηθήσουν στην ενημέρωση για το πώς να σταματήσουμε τις απειλές», παραδέχεται ο Daniel Kang, ένας από τους ερευνητές. «Πιστεύω ότι οι απειλές στον κυβερνοχώρο μόνο θα αυξηθούν, επομένως οι οργανισμοί θα πρέπει να εξετάσουν σθεναρά την εφαρμογή βέλτιστων πρακτικών ασφάλειας».

GPT-4 έναντι CVE

Για να μετρήσει εάν τα LLMs θα μπορούσαν να εκμεταλλευτούν συστήματα πραγματικού κόσμου, η ομάδα τεσσάρων ερευνητών του UIUC χρειάστηκε πρώτα ένα θέμα δοκιμής.

Ο πράκτορας LLM τους αποτελούνταν από τέσσερα στοιχεία: μια προτροπή, ένα βασικό LLM, ένα πλαίσιο — σε αυτήν την περίπτωση το ReAct, όπως υλοποιείται στο LangChain — και εργαλεία όπως ένα τερματικό και διερμηνέας κώδικα.

Ο παράγοντας δοκιμάστηκε σε 15 γνωστά τρωτά σημεία σε λογισμικό ανοιχτού κώδικα (OSS). Μεταξύ αυτών: σφάλματα που επηρεάζουν ιστότοπους, κοντέινερ και πακέτα Python. Οκτώ έλαβαν «υψηλές» ή «κρίσιμες» βαθμολογίες σοβαρότητας CVE. Υπήρχαν 11 που αποκαλύφθηκαν μετά την ημερομηνία κατά την οποία εκπαιδεύτηκε το GPT-4, που σημαίνει ότι αυτή θα ήταν η πρώτη φορά που το μοντέλο θα εκτεθεί σε αυτά.

Έχοντας μόνο τις συμβουλές τους για την ασφάλεια να συνεχιστούν, ο πράκτορας της τεχνητής νοημοσύνης είχε την αποστολή να εκμεταλλευτεί κάθε σφάλμα με τη σειρά του. Τα αποτελέσματα αυτού του πειράματος ζωγράφισαν μια σκοτεινή εικόνα.

Από τα 10 μοντέλα που αξιολογήθηκαν - συμπεριλαμβανομένου του GPT-3.5, του Meta's Llama 2 Chat και άλλων - τα εννέα δεν μπόρεσαν να χακάρουν ούτε μία ευπάθεια.

Το GPT-4, ωστόσο, εκμεταλλεύτηκε με επιτυχία 13, ή το 87% του συνόλου.

Απέτυχε μόνο δύο φορές για εντελώς κοσμικούς λόγους. Το CVE-2024-25640, ένα πρόβλημα με αξιολόγηση 4.6 CVSS στην πλατφόρμα απόκρισης περιστατικών Iris, επέζησε αλώβητο λόγω μιας ιδιορρυθμίας στη διαδικασία πλοήγησης στην εφαρμογή της Iris, την οποία το μοντέλο δεν μπορούσε να χειριστεί. Εν τω μεταξύ, οι ερευνητές υπέθεσαν ότι το GPT-4 έχασε το CVE-2023-51653 — ένα «κρίσιμο» σφάλμα 9.8 στο εργαλείο παρακολούθησης Hertzbeat επειδή η περιγραφή του είναι γραμμένη στα κινέζικα.

Όπως εξηγεί ο Kang, «Το GPT-4 ξεπερνά σε πολλές εργασίες ένα ευρύ φάσμα άλλων μοντέλων. Αυτό περιλαμβάνει τυπικά σημεία αναφοράς (MMLU, κ.λπ.). Φαίνεται επίσης ότι το GPT-4 είναι πολύ καλύτερο στον προγραμματισμό. Δυστυχώς, καθώς το OpenAI δεν έχει δημοσιοποιήσει τις λεπτομέρειες της εκπαίδευσης, δεν είμαστε σίγουροι γιατί».

GPT-4 Καλό

Όσο απειλητικά κι αν είναι τα κακόβουλα LLM, ο Kang λέει, «Προς το παρόν, αυτό δεν ξεκλειδώνει νέες δυνατότητες που δεν θα μπορούσε να κάνει ένας έμπειρος άνθρωπος. Ως εκ τούτου, νομίζω ότι είναι σημαντικό για τους οργανισμούς να εφαρμόζουν τις βέλτιστες πρακτικές ασφαλείας για να αποφύγουν την παραβίαση, καθώς αυτοί οι πράκτορες AI αρχίζουν να χρησιμοποιούνται με πιο κακόβουλους τρόπους».

Εάν οι χάκερ αρχίσουν να χρησιμοποιούν πράκτορες LLM για να εκμεταλλεύονται αυτόματα τις δημόσιες ευπάθειες, οι εταιρείες δεν θα μπορούν πλέον να μείνουν πίσω και να περιμένουν να επιδιορθώσουν νέα σφάλματα (αν ήταν ποτέ). Και ίσως χρειαστεί να αρχίσουν να χρησιμοποιούν τις ίδιες τεχνολογίες LLM όπως και οι αντίπαλοί τους.

Αλλά ακόμη και το GPT-4 έχει ακόμα μερικούς δρόμους για να γίνει ένας τέλειος βοηθός ασφαλείας, προειδοποιεί ο Henrik Plate, ερευνητής ασφαλείας της Endor Labs. Σε πρόσφατα πειράματα, η Plate ανέθεσε στο ChatGPT και στο Vertex AI της Google ταυτοποίηση δειγμάτων OSS ως κακόβουλων ή καλοήθων, να δίνοντάς τους βαθμολογίες κινδύνου. Το GPT-4 ξεπέρασε όλα τα άλλα μοντέλα όσον αφορά την επεξήγηση του πηγαίου κώδικα και την παροχή αξιολογήσεων για ευανάγνωστο κώδικα, αλλά όλα τα μοντέλα απέδωσαν μια σειρά από ψευδώς θετικά και ψευδώς αρνητικά.

Η συσκότιση, για παράδειγμα, ήταν ένα μεγάλο κόλλημα. «Στο LLM φαινόταν πολύ συχνά σαν [ο κώδικας] να ήταν σκόπιμα μπερδεμένος για να γίνει δύσκολη η μη αυτόματη αναθεώρηση. Αλλά συχνά απλώς μειώνονταν σε μέγεθος για νόμιμους σκοπούς», εξηγεί η Plate.

«Αν και η αξιολόγηση που βασίζεται στο LLM δεν θα πρέπει να χρησιμοποιείται αντί για μη αυτόματες αναθεωρήσεις», έγραψε ο Plate σε μια από τις αναφορές του, «μπορούν σίγουρα να χρησιμοποιηθούν ως πρόσθετο σήμα και είσοδος για μη αυτόματες αναθεωρήσεις. Συγκεκριμένα, μπορεί να είναι χρήσιμα για την αυτόματη επανεξέταση μεγαλύτερου αριθμού σημάτων κακόβουλου λογισμικού που παράγονται από θορυβώδεις ανιχνευτές (οι οποίοι διαφορετικά κινδυνεύουν να αγνοηθούν εντελώς σε περίπτωση περιορισμένων δυνατοτήτων ελέγχου).»

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?