Generatiivne andmeluure

4 viisi, kuidas küberjulgeoleku valdkonnas tehisintellekti otsuste tegemisel hakkama saada

kuupäev:

Küberrünnakute ulatus, millega organisatsioonid täna silmitsi seisavad, tähendab, et autonoomsed süsteemid on muutumas küberturvalisuse kriitiliseks komponendiks. See sunnib meid kahtlema ideaalses suhtes inimeste turvameeskondade ja tehisintellekti (AI) vahel: millisel tasemel tuleks AI-programmile usaldust anda ja millisel hetkel sekkuvad turvameeskonnad selle otsuste tegemisse?

Küberturvalisuse autonoomsete süsteemide abil tõstavad inimoperaatorid oma otsuste tegemise latti. Selle asemel, et teha ise üha enam juhitamatut arvu "mikrootsuseid", kehtestavad nad nüüd piirangud ja juhised, mida tehisintellekti masinad peaksid järgima miljonite granuleeritud mikrootsuste tegemisel. Selle tulemusel ei saa inimesed hakkama enam mikro-, vaid makrotasandil: nende igapäevased ülesanded muutuvad kõrgemal tasemel ja strateegilisemaks ning nad on kaasatud ainult kõige olulisemate sisendi või tegevuse taotluste jaoks.

Kuidas hakkab aga inimeste ja tehisintellekti suhe välja nägema? Allpool lahkame nelja stsenaariumi kirjeldas Harvard Business Review mis pakub võimalusi inimeste ja masinate vaheliseks mitmekülgseks suhtluseks ning uurib, kuidas see kübervaldkonnas välja näeb.

Inimene ringis (HitL)

Selle stsenaariumi korral teeb tegelikult otsuseid inimene ja masin annab ainult soovitusi tegevuste kohta, samuti konteksti ja toetavaid tõendeid nende otsuste taga, et vähendada aega tähenduse saavutamiseni ja tegutsemiseni. selle inimoperaatori jaoks.

Selle konfiguratsiooni korral on inimturvameeskonnal täielik autonoomia selle üle, kuidas masin töötab ja ei tegutse.

Selle lähenemisviisi pikaajaliseks toimimiseks on vaja piisavalt inimressursse. Sageli ületaks see organisatsiooni jaoks reaalset. Tehnoloogiaga tegelevate organisatsioonide jaoks on see etapp aga oluline samm usalduse loomisel tehisintellekti autonoomse reageerimise mootori vastu.

Inimene erandite ahelas (HitLfE)

Enamik otsuseid tehakse selles mudelis autonoomselt ja inimene tegeleb ainult eranditega, kus tehisintellekt nõuab enne otsuse tegemist inimeselt hinnangut või sisendit.

Inimesed juhivad loogikat, et teha kindlaks, millised erandid on ülevaatamiseks märgistatud, ning üha mitmekesisemate ja kohandatud digitaalsüsteemidega saab erinevate vajaduste ja kasutusjuhtude jaoks määrata erineva autonoomia taseme.

See tähendab, et enamik sündmusi juhitakse iseseisvalt ja viivitamatult tehisintellektil töötava autonoomse reaktsiooni abil, kuid organisatsioon jääb erijuhtudel silma peal, võimaldades paindlikult otsustada, millal ja kus need erijuhtumid ilmnevad. Nad võivad vajadusel sekkuda, kuid soovivad olla ettevaatlikud tehisintellekti soovitatud toimingu tühistamisel või tagasilükkamisel ilma hoolika läbivaatamiseta.

Human on the Loop (hotL)

Sel juhul teeb masin kõik toimingud ja inimkasutaja saab nende toimingute tulemused üle vaadata, et mõista nende toimingute konteksti. Tekkiva turvaintsidendi korral võimaldab see korraldus tehisintellektil ründe ohjeldada, andes samal ajal operaatorile märku, et seade või konto vajab tuge, ja see on koht, kuhu nad intsidendi kõrvaldamiseks tuuakse. Vaja võib olla täiendavat kohtuekspertiisi tööd ja kui kompromiss oli mitmes kohas, võib tehisintellekt oma vastust eskaleeruda või laiendada.

Paljude jaoks on see optimaalne turvakorraldus. Arvestades andmete keerukust ja tehtavate otsuste ulatust, ei ole lihtsalt otstarbekas iga sündmuse ja iga võimaliku haavatavuse puhul inimest innustada (HitL).

Selle korraldusega säilitavad inimesed täieliku kontrolli selle üle, millal, kus ja millisel tasemel süsteem tegutseb, kuid kui sündmused juhtuvad, jäetakse need miljonid mikrootsused masinale.

Inimene ringist väljas (HootL)

Selles mudelis teeb masin kõik otsused ja täiustamisprotsess on seda Ka automatiseeritud suletud ahel. Selle tulemuseks on iseparanev, iseparanev tagasisideahel, kus iga AI komponent siseneb ja täiustab järgmist, tõstes optimaalset turvaolekut.

See kujutab endast ülimat vabakäelist lähenemist turvalisusele. On ebatõenäoline, et inimturvalisuse operaatorid kunagi soovivad, et autonoomsed süsteemid oleksid "must kast" – töötaks täiesti sõltumatult, ilma et turvameeskonnad saaksid isegi ülevaadet oma tegevustest või põhjustest. Isegi kui inimene on kindel, et ta ei pea kunagi süsteemi sekkuma, soovib ta siiski alati järelevalvet. Järelikult, kuna autonoomsed süsteemid aja jooksul paranevad, on rõhk läbipaistvusel oluline. See on viinud hiljutise tõuke juurde seletatava tehisintellekti (XAI) poole, mis kasutab loomuliku keele töötlust, et selgitada inimoperaatorile lihtsas igapäevases keeles, miks masin on tegutsenud.

Kõigil neil neljal mudelil on oma unikaalsed kasutusjuhud, nii et olenemata ettevõtte turvaküpsusest võivad CISO ja turvameeskond tunda end kindlalt, kasutades süsteemi soovitusi, teades, et see teeb need soovitused ja otsused mikroanalüüsi põhjal, mis ulatub palju kaugemale skaalal, mida iga üksikisik või meeskond võib inimeselt oodata nende töötundide jooksul. Nii saavad mis tahes tüüpi ja suurusega organisatsioonid, mis tahes kasutusjuhtumite või ärivajadustega, võimendada tehisintellekti otsuste tegemist neile sobival viisil, tuvastades samal ajal iseseisvalt küberrünnakuid ja neile reageerides ning ennetades nende põhjustatud häireid.

Teave Autor

Dan Fein

Darktrace'i tootejuhina on Dan Fein aidanud klientidel kiiresti saada täielikku ja üksikasjalikku arusaama Darktrace'i tootekomplektist. Dan pöörab erilist tähelepanu Darktrace'i meilile, tagades selle tõhusa juurutamise keerulistes digitaalsetes keskkondades ning teeb tihedat koostööd arendus-, turundus-, müügi- ja tehniliste meeskondadega. Danil on New Yorgi ülikoolis bakalaureusekraad arvutiteaduses.

spot_img

Uusim intelligentsus

spot_img