Generativna podatkovna inteligenca

Uporabniki AI Assistant bi lahko razvili 'čustveno navezanost' nanje, Google opozarja – Dešifriraj

Datum:

Virtualni osebni pomočniki, ki jih poganja umetna inteligenca, postajajo vseprisotni na vseh tehnoloških platformah, v vsakem večjem tehnološkem podjetju dodajanje AI do njihovih storitev in na desetine specializirane storitve padajo na trg. Čeprav so izjemno uporabni, raziskovalci iz Googla pravijo, da bi se ljudje lahko preveč čustveno navezali nanje, kar bi povzročilo vrsto negativnih družbenih posledic.

Novo raziskovalna naloga iz Googlovega raziskovalnega laboratorija za umetno inteligenco DeepMind poudarja možne koristi naprednih, personaliziranih pomočnikov umetne inteligence za preoblikovanje različnih vidikov družbe, in pravi, da »lahko korenito spremenijo naravo dela, izobraževanja in ustvarjalnih prizadevanj, pa tudi to, kako komuniciramo, usklajujemo in se pogajamo drug z drugim, kar na koncu vpliva na to, kdo želimo biti in postati.«

Ta prevelik vpliv bi seveda lahko bil dvorezen meč, če se bo razvoj umetne inteligence še naprej pospeševal brez premišljenega načrtovanja.

Eno ključno tveganje? Oblikovanje neustrezno tesnih vezi – kar bi se lahko poslabšalo, če je pomočnik predstavljen s človeško podobo ali obrazom. "Ti umetni dejavniki lahko celo izpovedujejo svojo domnevno platonsko ali romantično naklonjenost uporabniku, s čimer postavljajo temelje za oblikovanje dolgotrajne čustvene navezanosti uporabnikov na AI," piše v časopisu.

Če se ne preveri, bi lahko takšna navezanost povzročila izgubo avtonomije za uporabnika in izgubo družbenih vezi, ker bi lahko AI nadomestil človeško interakcijo.

To tveganje ni zgolj teoretično. Tudi ko je bil AI v nekoliko primitivnem stanju, je bil AI chatbot dovolj vpliven, da uporabnika prepričati v samomor po dolgem klepetu leta 2023. Pred osmimi leti je bil e-poštni pomočnik z umetno inteligenco z imenom »Amy Ingram« dovolj realističen, da je nekatere uporabnike spodbudil k pošiljanju ljubezenskih sporočil in celo poskusite jo obiskati v službi.

Iason Gabriel, raziskovalec v DeepMindovi skupini za raziskovanje etike in soavtor prispevka, ni odgovoril Dešifriranje prošnjo za komentar.

V tvitu pa je Garbriel opozoril, da "vedno bolj osebne in človeku podobne oblike pomočnikov postavljajo nova vprašanja o antropomorfizmu, zasebnosti, zaupanju in ustreznih odnosih z AI."

Ker bi "milijone pomočnikov AI lahko uporabili na družbeni ravni, kjer bodo sodelovali drug z drugim in z neuporabniki," je Gabriel dejal, da verjame v potrebo po več zaščitnih ukrepih in bolj celovitem pristopu k temu novemu družbenemu pojavu.

Raziskovalni članek obravnava tudi pomen usklajevanja vrednosti, varnosti in zlorabe pri razvoju pomočnikov AI. Čeprav bi pomočniki AI lahko uporabnikom pomagali izboljšati njihovo dobro počutje, povečati njihovo ustvarjalnost in optimizirati svoj čas, so avtorji opozorili na dodatna tveganja, kot so neusklajenost z interesi uporabnikov in družbe, vsiljevanje vrednot drugim, uporaba za zlonamerne namene in ranljivost. na kontradiktorne napade.

Za obravnavo teh tveganj skupina DeepMind priporoča razvoj celovitih ocen za pomočnike AI in pospešitev razvoja družbeno koristnih pomočnikov AI.

»Trenutno smo na začetku tega obdobja tehnoloških in družbenih sprememb. Zato imamo priložnost, da ukrepamo zdaj – kot razvijalci, raziskovalci, oblikovalci politik in javni deležniki – da oblikujemo pomočnike AI, ki jih želimo videti v svetu.«

Neusklajenost umetne inteligence je mogoče ublažiti z učenjem krepitve prek človeške povratne informacije (RLHF), ki se uporablja za usposabljanje modelov umetne inteligence. Strokovnjaki, kot je Paul Christiano, ki je vodil ekipo za usklajevanje jezikovnih modelov pri OpenAI in zdaj vodi neprofitni raziskovalni center za usklajevanje, opozarjajo, da bi lahko nepravilno upravljanje metod usposabljanja AI končati v katastrofi.

"Mislim, da obstaja približno 10-20-odstotna možnost prevzema umetne inteligence, [z] veliko [ali] večino ljudi mrtvih," Paul Christiano je dejal na podcastu Bankless lani. "To jemljem zelo resno."

Uredil Ryan Ozawa.

Bodite na tekočem s kripto novicami, prejemajte dnevne posodobitve v svoj nabiralnik.

spot_img

Najnovejša inteligenca

spot_img

Klepetajte z nami

Zdravo! Kako vam lahko pomagam?