Generatieve data-intelligentie

Gebruikers van AI-assistenten zouden een ‘emotionele gehechtheid’ aan hen kunnen ontwikkelen, waarschuwt Google – Decrypt

Datum:

Virtuele persoonlijke assistenten, aangedreven door kunstmatige intelligentie, worden alomtegenwoordig op technologieplatforms, bij elk groot technologiebedrijf AI toevoegen aan hun diensten en tientallen gespecialiseerde diensten op de markt storten. Hoewel ze enorm nuttig zijn, zeggen onderzoekers van Google dat mensen te emotioneel aan hen gehecht kunnen raken, wat tot een groot aantal negatieve sociale gevolgen kan leiden.

nieuwe research paper van Google's DeepMind AI-onderzoekslaboratorium benadrukt de potentiële voordelen van geavanceerde, gepersonaliseerde AI-assistenten om verschillende aspecten van de samenleving te transformeren, en zegt dat ze “de aard van werk, onderwijs en creatieve bezigheden radicaal kunnen veranderen, evenals de manier waarop we communiceren, coördineren en onderhandelen met elkaar, en uiteindelijk beïnvloeden we wie we willen zijn en worden.”

Deze buitensporige impact zou uiteraard een tweesnijdend zwaard kunnen zijn als de AI-ontwikkeling zich blijft versnellen zonder doordachte planning.

Eén belangrijk risico? De vorming van ongepast nauwe banden – die nog kunnen worden verergerd als de assistent een mensachtige representatie of gezicht krijgt. “Deze kunstmatige agenten kunnen zelfs hun veronderstelde platonische of romantische genegenheid voor de gebruiker belijden, waardoor de basis wordt gelegd voor gebruikers om langdurige emotionele banden met AI te ontwikkelen”, zegt de krant.

Als een dergelijke gehechtheid niet wordt gecontroleerd, kan dit leiden tot een verlies aan autonomie voor de gebruiker en tot het verlies van sociale banden, omdat de AI de menselijke interactie zou kunnen vervangen.

Dit risico is niet louter theoretisch. Zelfs toen AI zich nog in een enigszins primitieve staat bevond, was een AI-chatbot invloedrijk genoeg om dat te doen een gebruiker ervan overtuigen zelfmoord te plegen na een lang gesprek in 2023. Acht jaar geleden was een door AI aangedreven e-mailassistent genaamd “Amy Ingram” realistisch genoeg om sommige gebruikers ertoe aan te zetten liefdesbriefjes te sturen en zelfs Probeer haar op het werk te bezoeken.

Iason Gabriel, onderzoekswetenschapper in het ethiekonderzoeksteam van DeepMind en co-auteur van het artikel, reageerde niet op Ontsleutelen verzoek om commentaar.

In een tweet waarschuwde Garbriel echter dat “steeds persoonlijkere en mensachtige vormen van assistent nieuwe vragen introduceren rond antropomorfisme, privacy, vertrouwen en passende relaties met AI.”

Omdat “miljoenen AI-assistenten kunnen worden ingezet op een maatschappelijk niveau waar ze met elkaar en met niet-gebruikers kunnen communiceren”, zei Gabriel dat hij gelooft in de noodzaak van meer waarborgen en een meer holistische benadering van dit nieuwe sociale fenomeen.

Het onderzoekspaper bespreekt ook het belang van waardeafstemming, veiligheid en misbruik bij de ontwikkeling van AI-assistenten. Hoewel AI-assistenten gebruikers kunnen helpen hun welzijn te verbeteren, hun creativiteit te vergroten en hun tijd te optimaliseren, waarschuwden de auteurs voor extra risico's zoals een verkeerde afstemming met gebruikers- en maatschappelijke belangen, het opleggen van waarden aan anderen, gebruik voor kwaadaardige doeleinden en kwetsbaarheid. tot vijandige aanvallen.

Om deze risico's aan te pakken, beveelt het DeepMind-team aan om uitgebreide beoordelingen voor AI-assistenten te ontwikkelen en de ontwikkeling van sociaal nuttige AI-assistenten te versnellen.

“Momenteel staan ​​we aan het begin van dit tijdperk van technologische en maatschappelijke veranderingen. We hebben daarom nu een kans om nu in actie te komen – als ontwikkelaars, onderzoekers, beleidsmakers en publieke belanghebbenden – om vorm te geven aan het soort AI-assistenten dat we in de wereld willen zien.”

Een verkeerde uitlijning van AI kan worden verholpen door middel van Reinforcement Learning Through Human Feedback (RLHF), dat wordt gebruikt om AI-modellen te trainen. Deskundigen als Paul Christiano, die leiding gaf aan het taalmodeluitlijningsteam bij OpenAI en nu leiding geeft aan het non-profit Alignment Research Center, waarschuwen dat onjuist beheer van AI-trainingsmethoden eindigen in een catastrofe.

“Ik denk dat er misschien een kans van 10-20% is op de overname van AI, waarbij veel [of] de meeste mensen dood zijn,” Paul Christiano zei op de Bankless-podcast vorig jaar. “Ik neem het heel serieus.”

Bewerkt door Ryan Ozawa.

Blijf op de hoogte van cryptonieuws, ontvang dagelijkse updates in je inbox.

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?