Generatiivne andmeluure

Microsoft tutvustab sügavvõltsitud tehnoloogiat, mis on avaldamiseks liiga hea

kuupäev:

Microsoft demonstreeris sel nädalal VASA-1, raamistikku, mis võimaldab luua videoid inimestest, kes räägivad liikumatust pildist, helinäidisest ja tekstist, ning väidab – õigustatult – see on liiga ohtlik, et seda avalikkusele avaldada.

Need tehisintellektiga loodud videod, milles saab inimesi veenvalt animeerida, et nad räägiksid skriptitud sõnu kloonitud häälega, on just sellised asjad, nagu USA Föderaalne Kaubanduskomisjon hoiatas eelmisel kuul, pärast eelmist reegli välja pakkumine et vältida AI-tehnoloogia kasutamist kellegi teisena esinemise pettusteks.

Microsofti meeskond tunnustab sama palju teadaanne, mis selgitab, et tehnoloogiat ei avaldata eetilistel kaalutlustel. Nad nõuavad, et nad esitaksid uuringuid virtuaalsete interaktiivsete tegelaste loomiseks, mitte kellegi teisena esinemiseks. Seetõttu pole toodet ega API-d kavandatud.

"Meie uurimustöö keskendub visuaalsete afektiivsete oskuste loomisele virtuaalsete tehisintellekti avataride jaoks, eesmärgiga saavutada positiivseid rakendusi," kinnitavad Redmondi boffinid. "See ei ole mõeldud sisu loomiseks, mida kasutatakse eksitamiseks või petmiseks.

"Kuid nagu ka muid seotud sisu genereerimise tehnikaid, võib seda siiski potentsiaalselt kuritarvitada inimestena esinemiseks. Oleme vastu igasugusele käitumisele, mille eesmärk on luua reaalsetest isikutest eksitavat või kahjulikku sisu, ning oleme huvitatud meie tehnika rakendamisest võltsimiste tuvastamise edendamiseks.

Kevin Surace, biomeetrilise autentimise ettevõtte Token esimees ja generatiivse AI sage kõneleja, rääkis. Register e-kirjas, et kuigi varem on olnud kaadrist ja kloonitud häälefailist animeeritud nägude tehnoloogilised demonstratsioonid, peegeldab Microsofti esitlus tehnika taset.

"Mõjud e-kirjade ja muu ärilise massikommunikatsiooni isikupärastamisele on vapustavad," arvas ta. “Isegi vanemate piltide animeerimine. Mingil määral on see lihtsalt lõbus ja teiselt poolt on sellel kindlad ärirakendused, mida me kõik järgnevatel kuudel ja aastatel kasutame.

Süvavõltsingute "lõbus" oli 96 protsenti konsensuslik porno hinnatud [PDF] 2019. aastal küberjulgeolekufirma Deeptrace poolt.

Sellegipoolest väidavad Microsofti teadlased, et realistliku välimusega inimeste loomine ja sõnade suhu panemine on kasulikud.

"Sellisel tehnoloogial on lubadus rikastada digitaalset suhtlust, suurendada juurdepääsetavust kommunikatsioonipuudega inimestele, muuta haridust, interaktiivse tehisintellekti juhendamisega meetodeid ning pakkuda terapeutilist tuge ja sotsiaalset suhtlust tervishoius," soovitavad nad uurimustöö mis ei sisalda sõnu "porno" või "desinformatsioon".

Kuigi on vaieldamatu, AI loodud video pole päris sama, mis sügavvõlts, viimane määratletud digitaalse manipuleerimisega, erinevalt generatiivsest meetodist, muutub eristamine ebaoluliseks, kui veenvat võltsi saab välja võluda ilma lõikamise ja kleepimiseta.

Küsimusele, mida ta arvab sellest, et Microsoft ei avalda seda tehnoloogiat väärkasutuse kartuses avalikkusele, väljendas Surace kahtlust piirangute elujõulisuses.

"Microsoft ja teised on praegu tagasi hoidnud, kuni nad lahendavad privaatsus- ja kasutusprobleemid," ütles ta. "Kuidas keegi reguleerib, kes seda õigetel põhjustel kasutab?"

Surace lisas, et juba on avatud lähtekoodiga mudeleid, mis on sarnaselt keerukad, osutades sellele EMO. "Võib tõmmata GitHubist lähtekoodi ja ehitada selle ümber teenuse, mis vaieldamatult konkureeriks Microsofti toodanguga," märkis ta. "Ruumi avatud lähtekoodiga olemuse tõttu on selle reguleerimine igal juhul võimatu."

Sellegipoolest püüavad riigid üle maailma reguleerida AI-ga valmistatud inimesi. Kanada, HiinaJa UK, teiste riikide hulgas on kõigil eeskirjad, mida saab rakendada sügavvõltsingutele, millest mõned täidavad laiemaid poliitilisi eesmärke. Suurbritannia just sel nädalal muutis selle ebaseaduslikuks luua ilma nõusolekuta seksuaalselt vulgaarne sügavvõltspilt. Selliste piltide jagamine oli Ühendkuningriigi 2023. aasta veebiohutuse seaduse alusel juba keelatud.

Jaanuaris USA seadusandjate kaheparteiline rühmitus sisse 2024. aasta Disrupt Explicit Forged Images and Non-Consensual Edits Act (DEFIANCE Act) – seaduseelnõu, mis loob konsensuseta süvavõltsitud piltide ohvritele võimaluse esitada kohtusse tsiviilhagi.

Ja teisipäeval, 16. aprillil toimus USA senati kohtukomitee eraelu puutumatuse, tehnoloogia ja õiguse allkomitee ärakuulamine pealkirjaga "AI järelevalve: valimiste süvavõltsingud".

Ettevalmistatud märkustes ütles sügava võltsingute tuvastamise ettevõtte DeepMedia tegevjuht Rijul Gupta:

Sügavvõltsingute kõige murettekitavam aspekt on nende võime pakkuda halbadele näitlejatele usutavat eitamist, võimaldades neil pidada tõelist sisu võltsiks. See avalikkuse usalduse vähenemine tabab meie sotsiaalse struktuuri ja demokraatia aluseid. Inimese aju, mis on loodud uskuma seda, mida ta näeb ja kuuleb, on sügavate võltsingute petmise suhtes eriti haavatav. Kuna need tehnoloogiad muutuvad üha keerukamaks, ähvardavad need õõnestada ühist reaalsustaju, mis on meie ühiskonna aluseks, luues ebakindluse ja skeptitsismi õhkkonna, kus kodanikud jäävad kahtluse alla iga teabe õigsuses, mida nad kohtavad.

Kuid mõelge turundusrakendustele. ®

spot_img

Uusim intelligentsus

spot_img

Jututuba koos meiega

Tere! Kuidas ma teid aidata saan?