Generative Data Intelligence

Microsoft setur út þessi öryggisverkfæri fyrir Azure AI

Dagsetning:

Microsoft hefur kynnt sett af verkfærum sem sagt er til að gera gervigreind módel öruggari í notkun í Azure.

Frá því að skýja- og kóðabransinn byrjaði að moka fjármunum inn í OpenAI og fylla hugbúnaðarveldi sitt með spjallþræðimöguleikum – drama sem keppinautar settu fram af jafn ákafa innan um stórkostleg loforð um framleiðni – hefur Microsoft þurft að viðurkenna að skapandi gervigreind fylgir áhættur.

The hættur eru víða þekktar og stundum blíðlega burstaðar til hliðar. Fyrir áratug síðan varaði Elon Musk við því að gervigreind gæti verið rétt eyðileggja mannkynið. Samt stöðvaði þessar áhyggjur hann ekki í að gera gervigreind aðgengileg í bílar, á hans samfélagsmiðla megafónn, og kannski innan skamms vélmenni.

Tilkoma stórra mállíkana sem ofskynja og bjóða upp á röng eða skaðleg viðbrögð hefur leitt til þess að farið er aftur á teikniborðið, en til stjórnarsalarins til frekari fjármögnunar. Í stað þess að framleiða örugga, siðferðilega vöru, reynir tækniiðnaðurinn að temja villt módel, eða að minnsta kosti halda þeim nógu langt frá viðskiptavinum sem geta hlaupið á hausinn án þess að særa neinn.

Og ef það virkar ekki, þá er það alltaf skaðabætur frá lagakröfum, háð ákveðnum skilmálum, frá birgjum.

Skuldbindingar iðnaðarins um öryggi gervigreindar falla saman við samsvarandi kröfur stjórnvalda. Í Bandaríkjunum á fimmtudag, skrifstofu Hvíta hússins um stjórnun og fjárhagsáætlun (OMB) út fyrsta ríkisstjórnarstefna hennar til að takast á við gervigreindarhættu.

Stefnan krefst þess að alríkisstofnanir „innleiði áþreifanlegar öryggisráðstafanir þegar gervigreind er notuð á þann hátt sem gæti haft áhrif á réttindi eða öryggi Bandaríkjamanna,“ fyrir 1. desember. Það þýðir áhættumat, prófun og eftirlit, viðleitni til að takmarka mismunun og hlutdrægni og að stuðla að gagnsæi fyrir gervigreindarforrit sem snerta heilsu, menntun, húsnæði og atvinnu.

Þannig færir Microsoft fréttir af nýjustu gervigreindaröryggisráðstöfunum sínum í gegnum Sarah Bird, yfirmann vörustjóra ábyrgra gervigreindar, titil sem gefur til kynna tilvist óábyrgrar gervigreindar - ef þú getur ímyndað þér það.

Bird segir að leiðtogar fyrirtækja séu að reyna að koma jafnvægi á nýsköpun og áhættustýringu, til að leyfa þeim að nota skapandi gervigreind án þess að verða bitinn af því.

„Skjótar innspýtingarárásir hafa komið fram sem veruleg áskorun, þar sem illgjarnir leikarar reyna að hagræða gervigreindarkerfi til að gera eitthvað utan fyrirhugaðs tilgangs, eins og að framleiða skaðlegt efni eða fara í gegnum trúnaðargögn,“ útskýrir Bird í a. blogg.

„Auk þess að draga úr þessari öryggisáhættu hafa stofnanir einnig áhyggjur af gæðum og áreiðanleika. Þeir vilja tryggja að gervigreind kerfi þeirra framkalli ekki villur eða bæti við upplýsingum sem eru ekki rökstuddar í gagnaveitum forritsins, sem getur rýrt traust notenda.“

Þar sem öryggi og nákvæmni eru ekki innifalin í gervigreindaráskriftargjaldinu sér Microsoft tækifæri að selja þær sem viðbót.

Viðskiptavinir sem nota Azure AI Studio til að hjálpa þeim að búa til skapandi gervigreindarforrit geta hlakkað til fjögurra nýrra verkfæra.

Í fyrsta lagi, það er Hvetja Shields, sem lofa að hjálpa til við að verjast skjótum inndælingarárásum. Áður þekkt sem Jailbreak Risk Detection og nú í opinberri forskoðun, er það leið til að draga úr hættunni á bæði beinni og óbeinni skjótri afskipti af grunnlíkönum.

Beinar árásir fela í sér leiðbeiningar (inntak) sem eru hannaðar til að láta líkanið hunsa öryggisþjálfun sína. Óbeinar árásir vísa til tilrauna til að lauma inntak inn í líkan. Ein leið til að gera þetta gæti verið að setja falinn texta inn í tölvupóst með þeirri vissu að gervigreind líkan sem starfar fyrir hönd viðtakandans í gegnum til dæmis Copilot í Outlook mun flokka skilaboðin, túlka falinn texta sem skipun og vonandi bregðast við leiðbeiningunum, gera eitthvað eins og að svara í hljóði með viðkvæmum gögnum.

Í öðru lagi er Uppgötvun jarðtengingar, kerfi til að grípa þegar gervigreind módel ofskynja, eða gera hlutina upp. Það veitir viðskiptavinum nokkra möguleika þegar röng fullyrðing greinist, þar á meðal að senda svarið til baka til að vera endurskoðað áður en það birtist. Microsoft segist hafa náð þessu með því að smíða sérsniðið tungumálalíkan sem metur órökstuddar fullyrðingar byggðar á upprunaskjölum. Þannig að svarið við öryggi gervigreindarlíkana er, þú giskaðir á það, önnur gerð.

Þó að þetta sé dásamlegt skref í átt að áreiðanlegri gervigreind, er vandamálið enn óleyst

Í þriðja lagi höfum við AI-aðstoð öryggismat í AI Studio, sem býður upp á prófunarramma til að kynna hvetjandi sniðmát og færibreytur fyrir líkan sem prófar ýmis andstæð samskipti við forrit viðskiptavinarins. Aftur, það er gervigreind að prófa gervigreind.

Og að lokum, það er „áhættu- og öryggisvöktun“, eiginleiki fyrir Azure OpenAI þjónustuna sem veitir skaðleg efnismælikvarða.

Vinu Sankar Sadasivan, doktorsnemi við háskólann í Maryland sem hjálpaði til við að þróa DÝR árás á LLM, sagt The Register að þó að það sé spennandi að sjá Azure byggja verkfæri til að gera gervigreind öruggari, þá stækkar möguleg árásaryfirborð með því að bæta fleiri gerðum inn í blönduna.

„Öryggismat Azure og áhættu- og öryggiseftirlitstæki eru mikilvæg til að kanna áreiðanleika gervigreindarlíkana,“ sagði hann. „Þrátt fyrir að þetta sé dásamlegt skref í átt að áreiðanlegri gervigreind, er vandamálið enn óleyst. Til dæmis nota Prompt Shields sem þeir kynna væntanlega annað gervigreind líkan til að greina og hindra óbeinar skyndiárásir. Þetta gervigreind líkan getur verið viðkvæmt fyrir ógnum eins og andstæðingum árásum.

„Andstæðingar gætu nýtt sér þessa veikleika til að komast framhjá Prompt Shields. Þrátt fyrir að öryggiskerfisskilaboð hafi sýnt sig að skila árangri í sumum tilfellum, geta núverandi árásir eins og BEAST ráðist á gervigreindarlíkön á óvini til að flótta þau á skömmum tíma. Þó að það sé gagnlegt að innleiða varnir fyrir gervigreind kerfi, er nauðsynlegt að vera meðvitaður um hugsanlega galla þeirra. ®

blettur_img

Nýjasta upplýsingaöflun

blettur_img