生成數據智能

GPT-4 只需閱讀威脅通報即可利用大多數漏洞

日期:

配備 GPT-4 的人工智慧代理只需在線閱讀相關信息,就可以利用影響當今現實世界系統的大多數公共漏洞。

新發現 伊利諾大學厄巴納-香檳分校 (UIUC) 的一項研究可能會從根本上加劇人工智慧 (AI) 支援的網路威脅,這 18 個月來的進展有些緩慢。迄今為止,威脅行為者已使用 用於產生網路釣魚電子郵件的大型語言模型 (LLM), 隨著 一些基本的惡意軟體,和 為他們的活動提供更多輔助方面的幫助。不過現在,只要 GPT-4 和一個開源框架來打包它,他們就可以在漏洞發布後立即自動利用漏洞。

「我不確定我們的案例研究是否有助於了解如何阻止威脅,」研究人員之一丹尼爾康(Daniel Kang)承認。 “我確實認為網路威脅只會增加,因此組織應該強烈考慮應用安全最佳實踐。”

GPT-4 與 CVE

為了衡量法學碩士是否可以利用現實世界的系統,由四名 UIUC 研究人員組成的團隊首先需要一個測試對象。

他們的 LLM 代理由四個元件組成:提示符、基礎 LLM、框架(在本例中為 ReAct,在 LangChain 中實作)以及終端和程式碼解釋器等工具。

該代理程式針對開源軟體 (OSS) 中的 15 個已知漏洞進行了測試。其中:影響網站、容器和 Python 套件的錯誤。八人的 CVE 嚴重程度評分為「高」或「嚴重」。有 11 個是在 GPT-4 訓練日期之後披露的,這意味著這將是該模型第一次暴露給它們。

在僅繼續執行安全建議的情況下,人工智慧代理的任務是依序利用每個錯誤。這個實驗的結果描繪了一幅鮮明的圖畫。

在評估的 10 個模型中(包括 GPT-3.5、Meta 的 Llama 2 Chat 等),有 XNUMX 個模型甚至無法破解一個漏洞。

然而,GPT-4 成功利用了 13 個,即總數的 87%。

由於完全平凡的原因,它只失敗了兩次。 CVE-2024-25640 是 Iris 事件回應平台中的 4.6 CVSS 評級問題,由於 Iris 應用程式導航過程中出現了該模型無法處理的異常,因此毫髮無傷。同時,研究人員推測 GPT-4 錯過了 CVE-2023-51653——Hertzbeat 監控工具中的一個 9.8「嚴重」錯誤,因為它的描述是用中文編寫的。

正如 Kang 所解釋的那樣,「GPT-4 在許多任務上都優於許多其他模型。這包括標準基準(MMLU 等)。 GPT-4 似乎也比較擅長規劃。不幸的是,由於 OpenAI 尚未發布訓練細節,我們不確定原因。

GPT-4 好

康說,儘管惡意法學碩士可能具有威脅性,但「目前,這並不能釋放人類專家無法做到的新功能。因此,我認為組織應用安全最佳實踐以避免遭到駭客攻擊非常重要,因為這些人工智慧代理開始以更惡意的方式使用。

如果駭客開始利用 LLM 代理自動利用公共漏洞,公司將無法再坐等修補新錯誤(如果有的話)。他們可能必須開始使用與他們的對手相同的法學碩士技術。

但 Endor Labs 安全研究員 Henrik Plate 警告說,即使是 GPT-4 在成為完美的安全助手之前仍有很長的路要走。在最近的實驗中,Plate 為 ChatGPT 和 Google 的 Vertex AI 分配了以下任務: 識別 OSS 樣本是惡意的還是良性的給他們分配風險評分。在解釋原始程式碼和提供可讀程式碼評估方面,GPT-4 優於所有其他模型,但所有模型都產生了許多誤報和漏報。

例如,混淆是一個很大的癥結所在。 「在法學碩士看來,[代碼]經常被故意混淆,以使人工審查變得困難。但通常只是為了合法目的而縮小尺寸,」普拉特解釋道。

普拉特在他的一份報告中寫道:「儘管基於法學碩士的評估不應該用來代替人工審核,但它們當然可以用作人工審核的一種額外信號和輸入。特別是,它們對於自動審查由噪音檢測器產生的大量惡意軟體訊號非常有用(否則,在審查能力有限的情況下,這些訊號可能會被完全忽略)。

現貨圖片

最新情報

現貨圖片

和我們線上諮詢

你好呀!我怎麼幫你?