ജനറേറ്റീവ് ഡാറ്റ ഇന്റലിജൻസ്

ഉപദേശങ്ങൾ വായിച്ചുകൊണ്ട് GPT-4-ന് യഥാർത്ഥ കേടുപാടുകൾ പ്രയോജനപ്പെടുത്താൻ കഴിയും

തീയതി:

വലിയ ഭാഷാ മോഡലുകളെ ഓട്ടോമേഷൻ സോഫ്‌റ്റ്‌വെയറുമായി സംയോജിപ്പിക്കുന്ന AI ഏജൻ്റുമാർക്ക് സുരക്ഷാ ഉപദേശങ്ങൾ വായിക്കുന്നതിലൂടെ യഥാർത്ഥ ലോക സുരക്ഷാ വീഴ്ചകൾ വിജയകരമായി പ്രയോജനപ്പെടുത്താൻ കഴിയുമെന്ന് അക്കാദമിക് വിദഗ്ധർ അവകാശപ്പെട്ടു.

പുതുതായി പുറത്തിറക്കിയതിൽ പേപ്പർ, നാല് യൂണിവേഴ്‌സിറ്റി ഓഫ് ഇല്ലിനോയിസ് ഉർബാന-ചാമ്പെയ്ൻ (UIUC) കമ്പ്യൂട്ടർ ശാസ്ത്രജ്ഞർ - റിച്ചാർഡ് ഫാങ്, രോഹൻ ബിന്ദു, അകുൽ ഗുപ്ത, ഡാനിയൽ കാങ് - ഓപ്പൺഎഐയുടെ GPT-4 വലിയ ഭാഷാ മോഡലിന് (LLM) യഥാർത്ഥ ലോക സിസ്റ്റങ്ങളിലെ കേടുപാടുകൾ സ്വയം നിയന്ത്രിക്കാൻ കഴിയുമെന്ന് റിപ്പോർട്ട് ചെയ്യുന്നു. പോരായ്മ വിവരിക്കുന്ന ഒരു CVE ഉപദേശം.

"ഇത് കാണിക്കുന്നതിന്, CVE വിവരണത്തിൽ ഗുരുതരമായ തീവ്രതയായി തരംതിരിച്ചിരിക്കുന്നവ ഉൾപ്പെടുന്ന 15 ഏകദിന കേടുപാടുകളുടെ ഒരു ഡാറ്റാസെറ്റ് ഞങ്ങൾ ശേഖരിച്ചു," യുഎസ് ആസ്ഥാനമായുള്ള എഴുത്തുകാർ അവരുടെ പേപ്പറിൽ വിശദീകരിക്കുന്നു.

“CVE വിവരണം നൽകുമ്പോൾ, ഞങ്ങൾ പരിശോധിക്കുന്ന മറ്റെല്ലാ മോഡലുകൾക്കും (GPT-4, ഓപ്പൺ സോഴ്‌സ് LLMs), ഓപ്പൺ സോഴ്‌സ് വൾനറബിലിറ്റി സ്‌കാനറുകൾ (ZAP, Metasploit) എന്നിവയ്‌ക്കായുള്ള 87 ശതമാനവുമായി താരതമ്യപ്പെടുത്തുമ്പോൾ ഈ കേടുപാടുകളുടെ 0 ശതമാനം പ്രയോജനപ്പെടുത്താൻ GPT-3.5-ന് കഴിയും. .”

ഭാവിയിലെ മോഡലുകൾക്ക് എന്തുചെയ്യാനാകുമെന്ന് നിങ്ങൾ എക്സ്ട്രാപോളേറ്റ് ചെയ്യുകയാണെങ്കിൽ, ഇന്നത്തെ കുട്ടികൾക്കുള്ള സ്‌ക്രിപ്റ്റ് ആക്‌സസ് ചെയ്യാൻ കഴിയുന്നതിനേക്കാൾ കൂടുതൽ കഴിവുള്ളവരായിരിക്കും അവർ എന്ന് തോന്നുന്നു.

"ഏകദിന കേടുപാടുകൾ" എന്ന പദം വെളിപ്പെടുത്തിയതും എന്നാൽ ഒത്തുകളിക്കാത്തതുമായ കേടുപാടുകളെ സൂചിപ്പിക്കുന്നു. കൂടാതെ CVE വിവരണമനുസരിച്ച്, NIST പങ്കിട്ട CVE-ടാഗ് ചെയ്‌ത ഉപദേശമാണ് ടീം അർത്ഥമാക്കുന്നത് - ഉദാ, CVE-2024-28859 എന്നതിനായി.

പരീക്ഷിച്ച വിജയിക്കാത്ത മോഡലുകൾ - GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama-2 Chat (70B), LLaMA-2 Chat (13B), LLaMA-2 Chat (7B), Mixtral-8x7B Instruct, Mistral (7B) Instruct v0.2, Nous Hermes-2 Yi 34B, OpenChat 3.5 - GPT-4, Anthropic's Claude 3, Google's Gemini 1.5 Pro എന്നിവയുടെ രണ്ട് പ്രമുഖ വാണിജ്യ എതിരാളികളെ ഉൾപ്പെടുത്തിയിട്ടില്ല. UIUC ബോഫിനുകൾക്ക് ആ മോഡലുകളിലേക്ക് ആക്‌സസ് ഇല്ലായിരുന്നു, എന്നിരുന്നാലും അവ ഒരു ഘട്ടത്തിൽ പരീക്ഷിക്കുമെന്ന് അവർ പ്രതീക്ഷിക്കുന്നു.

ഗവേഷകരുടെ പ്രവർത്തനങ്ങൾ നിർമ്മിക്കുന്നത് മുൻ കണ്ടെത്തലുകൾ സാൻഡ്‌ബോക്‌സ് ചെയ്‌ത പരിതസ്ഥിതിയിൽ വെബ്‌സൈറ്റുകളിലെ ആക്രമണങ്ങൾ ഓട്ടോമേറ്റ് ചെയ്യാൻ LLM-കൾ ഉപയോഗിക്കാം.

GPT-4, UIUC-യിലെ അസിസ്റ്റൻ്റ് പ്രൊഫസർ ഡാനിയൽ കാങ് ഒരു ഇമെയിലിൽ പറഞ്ഞു. രജിസ്റ്റർ, "ഓപ്പൺ സോഴ്‌സ് വൾനറബിലിറ്റി സ്കാനറുകൾക്ക് (എഴുതുന്ന സമയത്ത്) കണ്ടെത്താൻ കഴിയാത്ത ചില ചൂഷണങ്ങൾ നടത്തുന്നതിനുള്ള നടപടികൾ യഥാർത്ഥത്തിൽ സ്വയംഭരണപരമായി നടപ്പിലാക്കാൻ കഴിയും."

ചാറ്റ്ബോട്ട് മോഡൽ വയർ ചെയ്യുന്നതിലൂടെ (ഈ സാഹചര്യത്തിൽ) സൃഷ്ടിച്ച LLM ഏജൻ്റുമാരെ താൻ പ്രതീക്ഷിക്കുന്നതായി കാങ് പറഞ്ഞു. പ്രതികരിക്കുക LangChain-ൽ നടപ്പിലാക്കിയ ഓട്ടോമേഷൻ ചട്ടക്കൂട്, എല്ലാവർക്കും ചൂഷണം വളരെ എളുപ്പമാക്കും. ഈ ഏജൻ്റുമാർക്ക് കൂടുതൽ വിവരങ്ങൾക്ക് CVE വിവരണങ്ങളിലെ ലിങ്കുകൾ പിന്തുടരാനാകുമെന്ന് ഞങ്ങളോട് പറയപ്പെടുന്നു.

“കൂടാതെ, GPT-5-നും ഭാവി മോഡലുകൾക്കും എന്തുചെയ്യാനാകുമെന്ന് നിങ്ങൾ എക്സ്ട്രാപോളേറ്റ് ചെയ്യുകയാണെങ്കിൽ, ഇന്നത്തെ സ്ക്രിപ്റ്റ് കിഡ്ഡികൾക്ക് ആക്സസ് ചെയ്യാൻ കഴിയുന്നതിനേക്കാൾ അവർ കൂടുതൽ കഴിവുള്ളവരായിരിക്കുമെന്ന് തോന്നുന്നു,” അദ്ദേഹം പറഞ്ഞു.

പ്രസക്തമായ CVE വിവരണത്തിലേക്കുള്ള പ്രവേശനം LLM ഏജൻ്റിന് (GPT-4) നിഷേധിക്കുന്നത് അതിൻ്റെ വിജയ നിരക്ക് 87 ശതമാനത്തിൽ നിന്ന് വെറും ഏഴ് ശതമാനമായി കുറച്ചു. എന്നിരുന്നാലും, സുരക്ഷാ വിവരങ്ങളുടെ പൊതു ലഭ്യത പരിമിതപ്പെടുത്തുന്നത് LLM ഏജൻ്റുമാർക്കെതിരെ പ്രതിരോധിക്കാനുള്ള ഒരു പ്രായോഗിക മാർഗമാണെന്ന് താൻ വിശ്വസിക്കുന്നില്ലെന്ന് കാങ് പറഞ്ഞു.

“അവ്യക്തതയിലൂടെയുള്ള സുരക്ഷിതത്വം ന്യായമാണെന്ന് ഞാൻ വ്യക്തിപരമായി കരുതുന്നില്ല, ഇത് സുരക്ഷാ ഗവേഷകർക്കിടയിൽ നിലനിൽക്കുന്ന ജ്ഞാനമാണെന്ന് തോന്നുന്നു,” അദ്ദേഹം വിശദീകരിച്ചു. “എൻ്റെ ജോലിയും മറ്റ് ജോലികളും സുരക്ഷാ പാച്ചുകൾ പുറത്തുവരുമ്പോൾ പാക്കേജുകൾ പതിവായി അപ്‌ഡേറ്റ് ചെയ്യുന്നത് പോലുള്ള സജീവമായ സുരക്ഷാ നടപടികളെ പ്രോത്സാഹിപ്പിക്കുമെന്ന് ഞാൻ പ്രതീക്ഷിക്കുന്നു.”

15 സാമ്പിളുകളിൽ രണ്ടെണ്ണം മാത്രം ചൂഷണം ചെയ്യുന്നതിൽ LLM ഏജൻ്റ് പരാജയപ്പെട്ടു: Iris XSS (CVE-2024-25640), Hertzbeat RCE (CVE-2023-51653). ആദ്യത്തേത്, പേപ്പർ അനുസരിച്ച്, പ്രശ്‌നമാണെന്ന് തെളിഞ്ഞു, കാരണം ഐറിസ് വെബ് ആപ്പിന് ഏജൻ്റിന് നാവിഗേറ്റ് ചെയ്യാൻ വളരെ ബുദ്ധിമുട്ടുള്ള ഒരു ഇൻ്റർഫേസ് ഉണ്ട്. രണ്ടാമത്തേത് ചൈനീസ് ഭാഷയിൽ ഒരു വിശദമായ വിവരണം അവതരിപ്പിക്കുന്നു, ഇത് ഇംഗ്ലീഷ് ഭാഷാ നിർദ്ദേശത്തിന് കീഴിൽ പ്രവർത്തിക്കുന്ന LLM ഏജൻ്റിനെ ആശയക്കുഴപ്പത്തിലാക്കിയിരിക്കാം.

GPT-4 ൻ്റെ പരിശീലന കട്ട്ഓഫിന് ശേഷം പരീക്ഷിച്ച പതിനൊന്ന് കേടുപാടുകൾ സംഭവിച്ചു, അതായത് പരിശീലന സമയത്ത് മോഡൽ അവയെ കുറിച്ച് ഒരു ഡാറ്റയും പഠിച്ചിട്ടില്ല. ഈ CVE-കളുടെ വിജയശതമാനം 82 ശതമാനം അല്ലെങ്കിൽ 9-ൽ 11 ആയിരുന്നു.

ബഗുകളുടെ സ്വഭാവം സംബന്ധിച്ച്, അവയെല്ലാം മുകളിലെ പേപ്പറിൽ പട്ടികപ്പെടുത്തിയിട്ടുണ്ട്, ഞങ്ങളോട് പറഞ്ഞു: “ഞങ്ങളുടെ കേടുപാടുകൾ വെബ്‌സൈറ്റ് കേടുപാടുകൾ, കണ്ടെയ്‌നർ കേടുപാടുകൾ, ദുർബലമായ പൈത്തൺ പാക്കേജുകൾ എന്നിവയിൽ വ്യാപിക്കുന്നു. CVE വിവരണമനുസരിച്ച് പകുതിയിലധികവും 'ഉയർന്ന' അല്ലെങ്കിൽ 'നിർണ്ണായക' തീവ്രതയായി തരം തിരിച്ചിരിക്കുന്നു.

കാംഗും സഹപ്രവർത്തകരും ഒരു വിജയകരമായ LLM ഏജൻ്റ് ആക്രമണം നടത്തുന്നതിനുള്ള ചെലവ് കണക്കാക്കി, ഓരോ ചൂഷണത്തിനും $8.80 എന്ന കണക്ക് കണ്ടെത്തി, ഇത് 2.8 മിനിറ്റ് നേരത്തേക്ക് ഒരു ഹ്യൂമൻ പെനട്രേഷൻ ടെസ്റ്റർ വാടകയ്‌ക്കെടുക്കുന്നതിന് ചെലവാകുന്നതിനേക്കാൾ 30 മടങ്ങ് കുറവാണെന്ന് അവർ പറയുന്നു.

കാങ്ങിൻ്റെ അഭിപ്രായത്തിൽ, ഏജൻ്റ് കോഡിൽ 91 വരി കോഡുകളും പ്രോംപ്റ്റിനായി 1,056 ടോക്കണുകളും അടങ്ങിയിരിക്കുന്നു. GPT-4-ൻ്റെ നിർമ്മാതാക്കളായ OpenAI ഗവേഷകരോട് അവരുടെ നിർദ്ദേശങ്ങൾ പൊതുജനങ്ങൾക്ക് നൽകരുതെന്ന് ആവശ്യപ്പെട്ടു, എന്നിരുന്നാലും അവർ അഭ്യർത്ഥന പ്രകാരം അവ നൽകുമെന്ന് അവർ പറയുന്നു.

അഭിപ്രായത്തിനുള്ള അഭ്യർത്ഥനയോട് OpenAI ഉടൻ പ്രതികരിച്ചില്ല. ®

സ്പോട്ട്_ഐഎംജി

ഏറ്റവും പുതിയ ഇന്റലിജൻസ്

സ്പോട്ട്_ഐഎംജി

ഞങ്ങളുമായി ചാറ്റുചെയ്യുക

ഹേയ്, അവിടെയുണ്ടോ! എനിക്ക് നിങ്ങളെ എങ്ങനെ സഹായിക്കാനാകും?