Intelligenza generativa dei dati

Gli utenti dell'assistente AI potrebbero sviluppare un "attaccamento emotivo" a loro, avverte Google - Decrypt

Data:

Gli assistenti personali virtuali basati sull’intelligenza artificiale stanno diventando onnipresenti su tutte le piattaforme tecnologiche, presso tutte le principali aziende tecnologiche aggiungendo l'intelligenza artificiale ai loro servizi e dozzine di servizi specializzati precipitando sul mercato. Sebbene immensamente utili, i ricercatori di Google affermano che gli esseri umani potrebbero attaccarsi troppo emotivamente a loro, portando a una serie di conseguenze sociali negative.

Una nuova documento di ricerca del laboratorio di ricerca DeepMind AI di Google evidenzia i potenziali vantaggi degli assistenti IA avanzati e personalizzati per trasformare vari aspetti della società, affermando che "potrebbero alterare radicalmente la natura del lavoro, dell'istruzione e delle attività creative, nonché il modo in cui comunichiamo, coordiniamo e negoziamo". l’uno con l’altro, influenzando in definitiva chi vogliamo essere e diventare”.

Questo impatto enorme, ovviamente, potrebbe essere un’arma a doppio taglio se lo sviluppo dell’intelligenza artificiale continua ad avanzare senza una pianificazione ponderata.

Un rischio chiave? La formazione di legami inappropriatamente stretti, che potrebbero essere esacerbati se all'assistente viene presentata una rappresentazione o un volto simile a quello umano. "Questi agenti artificiali possono persino professare il loro presunto affetto platonico o romantico per l'utente, gettando le basi affinché gli utenti possano formare legami emotivi di lunga data con l'intelligenza artificiale", afferma il documento.

Se non controllato, un simile attaccamento potrebbe portare a una perdita di autonomia per l’utente e alla perdita di legami sociali perché l’intelligenza artificiale potrebbe sostituire l’interazione umana.

Questo rischio non è puramente teorico. Anche quando l’IA era in uno stato piuttosto primitivo, un chatbot AI era abbastanza influente da farlo convincere un utente a suicidarsi dopo una lunga chiacchierata nel 2023. Otto anni fa, un assistente di posta elettronica basato sull'intelligenza artificiale chiamato "Amy Ingram" era abbastanza realistico da spingere alcuni utenti a inviare messaggi d'amore e persino tentare di farle visita al lavoro.

Iason Gabriel, ricercatore nel gruppo di ricerca sull'etica di DeepMind e coautore dell'articolo, non ha risposto Decrypt di richiesta di commento

In un tweet, tuttavia, Garbriel ha avvertito che “forme di assistente sempre più personali e simili a quelle umane introducono nuove domande sull’antropomorfismo, la privacy, la fiducia e le relazioni appropriate con l’intelligenza artificiale”.

Poiché "milioni di assistenti IA potrebbero essere impiegati a livello sociale dove interagiranno tra loro e con i non utenti", Gabriel ha affermato di credere nella necessità di maggiori tutele e di un approccio più olistico a questo nuovo fenomeno sociale.

Il documento di ricerca discute anche l’importanza dell’allineamento dei valori, della sicurezza e dell’uso improprio nello sviluppo degli assistenti IA. Anche se gli assistenti di intelligenza artificiale potrebbero aiutare gli utenti a migliorare il loro benessere, aumentare la loro creatività e ottimizzare il loro tempo, gli autori hanno messo in guardia da rischi aggiuntivi come un disallineamento con gli interessi degli utenti e della società, l’imposizione di valori sugli altri, l’uso per scopi dannosi e la vulnerabilità agli attacchi avversari.

Per affrontare questi rischi, il team di DeepMind raccomanda di sviluppare valutazioni complete per gli assistenti IA e di accelerare lo sviluppo di assistenti IA socialmente vantaggiosi.

“Attualmente ci troviamo all’inizio di questa era di cambiamento tecnologico e sociale. Abbiamo quindi una finestra di opportunità per agire ora – come sviluppatori, ricercatori, policy maker e stakeholder pubblici – per dare forma al tipo di assistenti AI che vogliamo vedere nel mondo”.

Il disallineamento dell’intelligenza artificiale può essere mitigato attraverso l’apprendimento per rinforzo attraverso il feedback umano (RLHF), utilizzato per addestrare i modelli di intelligenza artificiale. Esperti come Paul Christiano, che ha gestito il team di allineamento del modello linguistico presso OpenAI e ora guida l’organizzazione no-profit Alignment Research Center, avvertono che una gestione impropria dei metodi di formazione dell’IA potrebbe finire in una catastrofe.

"Penso che forse ci sia una probabilità del 10-20% che l'intelligenza artificiale prenda il sopravvento, [con] molti [o] la maggior parte degli esseri umani morti", Paul Christiano disse sul podcast Bankless l'anno scorso. "Lo prendo abbastanza sul serio."

A cura di Ryan Ozawa.

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.

spot_img

L'ultima intelligenza

spot_img

Parla con noi

Ciao! Come posso aiutarla?