Generativ dataintelligens

AI Assistant-brugere kunne udvikle en 'følelsesmæssig tilknytning' til dem, advarer Google - Dekrypter

Dato:

Virtuelle personlige assistenter drevet af kunstig intelligens bliver allestedsnærværende på tværs af teknologiplatforme hos alle større teknologivirksomheder tilføjer AI til deres tjenester og snesevis af specialiserede tjenester vælter ud på markedet. Selvom det er enormt nyttigt, siger forskere fra Google, at mennesker kan blive for følelsesmæssigt knyttet til dem, hvilket fører til en lang række negative sociale konsekvenser.

En ny forskningsartikel fra Googles DeepMind AI-forskningslaboratorium fremhæver de potentielle fordele ved avancerede, personaliserede AI-assistenter til at transformere forskellige aspekter af samfundet, og siger, at de "radikalt kunne ændre arten af ​​arbejde, uddannelse og kreative sysler, samt hvordan vi kommunikerer, koordinerer og forhandler med hinanden og i sidste ende påvirke, hvem vi ønsker at være og blive."

Denne store indvirkning kan selvfølgelig være et tveægget sværd, hvis AI-udviklingen fortsætter med at skride fremad uden gennemtænkt planlægning.

En vigtig risiko? Dannelsen af ​​uhensigtsmæssigt tætte bånd - hvilket kan forværres, hvis assistenten præsenteres for en menneskelignende repræsentation eller ansigt. "Disse kunstige midler kan endda bekendere deres formodede platoniske eller romantiske hengivenhed for brugeren, hvilket lægger grundlaget for, at brugere kan danne en langvarig følelsesmæssig tilknytning til AI," siger avisen.

Hvis det ikke er markeret, kan en sådan tilknytning føre til tab af autonomi for brugeren og tab af sociale bånd, fordi AI kan erstatte menneskelig interaktion.

Denne risiko er ikke rent teoretisk. Selv når AI var i en noget primitiv tilstand, var en AI-chatbot indflydelsesrig nok til at overbevise en bruger om at begå selvmord efter en lang chat tilbage i 2023. For otte år siden var en AI-drevet e-mail-assistent ved navn "Amy Ingram" realistisk nok til at få nogle brugere til at sende kærlighedsnotater og endda forsøge at besøge hende på arbejdet.

Iason Gabriel, en forsker i DeepMinds etikforskerhold og medforfatter til papiret, svarede ikke på Dekryptér s anmode om kommentar.

I et tweet advarede Garbriel imidlertid om, at "stadig mere personlige og menneskelignende former for assistent introducerer nye spørgsmål omkring antropomorfisme, privatliv, tillid og passende forhold til AI."

Fordi "millioner af kunstig intelligens-assistenter kunne blive indsat på et samfundsniveau, hvor de vil interagere med hinanden og med ikke-brugere," sagde Gabriel, at han tror på behovet for flere sikkerhedsforanstaltninger og en mere holistisk tilgang til dette nye sociale fænomen.

Forskningspapiret diskuterer også vigtigheden af ​​værditilpasning, sikkerhed og misbrug i udviklingen af ​​AI-assistenter. Selvom AI-assistenter kunne hjælpe brugere med at forbedre deres velbefindende, forbedre deres kreativitet og optimere deres tid, advarede forfatterne om yderligere risici som en forkert tilpasning til brugernes og samfundets interesser, påtvingelse af værdier på andre, brug til ondsindede formål og sårbarhed til modstridende angreb.

For at imødegå disse risici anbefaler DeepMind-teamet at udvikle omfattende vurderinger for AI-assistenter og fremskynde udviklingen af ​​socialt gavnlige AI-assistenter.

"Vi står i øjeblikket i begyndelsen af ​​denne æra af teknologiske og samfundsmæssige forandringer. Vi har derfor en mulighed for at handle nu – som udviklere, forskere, politiske beslutningstagere og offentlige interessenter – for at forme den slags AI-assistenter, som vi ønsker at se i verden.”

AI-fejljustering kan afbødes gennem Reinforcement Learning Through Human Feedback (RLHF), som bruges til at træne AI-modeller. Eksperter som Paul Christiano, der drev sprogmodeltilpasningsteamet hos OpenAI og nu leder non-profit Alignment Research Center, advarer om, at forkert styring af AI-træningsmetoder kan ende i katastrofe.

"Jeg tror måske, at der er noget i retning af en 10-20% chance for AI-overtagelse, [med] mange [eller] de fleste mennesker døde," Paul Christiano sagde på Bankless-podcasten sidste år. "Jeg tager det meget seriøst."

Redigeret af Ryan Ozawa.

Hold dig opdateret med kryptonyheder, få daglige opdateringer i din indbakke.

spot_img

Seneste efterretninger

spot_img

Chat med os

Hej! Hvordan kan jeg hjælpe dig?