Inteligența generativă a datelor

Utilizatorii AI Assistant ar putea dezvolta un „atașament emoțional” față de ei, avertizează Google – Decrypt

Data:

Asistenții personali virtuali alimentați de inteligență artificială devin omniprezenti pe platformele tehnologice, cu fiecare firmă tehnologică importantă adăugarea AI la serviciile lor și zeci de servicii specializate prăbușind pe piață. Deși sunt extrem de folositori, cercetătorii de la Google spun că oamenii ar putea deveni prea atașați emoțional de ei, ceea ce duce la o serie de consecințe sociale negative.

O nouă lucrare de cercetare de la laboratorul de cercetare Google DeepMind AI evidențiază beneficiile potențiale ale asistenților AI personalizați, avansați pentru a transforma diferite aspecte ale societății, spunând că „ar putea modifica radical natura muncii, educației și activităților creative, precum și modul în care comunicăm, coordonăm și negociem. unul cu altul, influențând în cele din urmă cine vrem să fim și să devenim.”

Acest impact imens, desigur, ar putea fi o sabie cu două tăișuri dacă dezvoltarea AI continuă să avanseze fără o planificare atentă.

Un risc cheie? Formarea de legături necorespunzător de strânse — care ar putea fi exacerbată dacă asistentului i se prezintă o reprezentare sau o față asemănătoare unui om. „Acești agenți artificiali pot chiar să-și mărturisească presupusa afecțiune platonică sau romantică pentru utilizator, punând bazele utilizatorilor pentru a-și forma atașamente emoționale de lungă durată față de AI”, se spune în lucrare.

Lăsat necontrolat, un astfel de atașament ar putea duce la o pierdere a autonomiei utilizatorului și la pierderea legăturilor sociale, deoarece IA ar putea înlocui interacțiunea umană.

Acest risc nu este pur teoretic. Chiar și atunci când AI era într-o stare oarecum primitivă, un chatbot AI a fost suficient de influent pentru a convinge un utilizator să se sinucidă după o discuție lungă în 2023. În urmă cu opt ani, un asistent de e-mail alimentat cu inteligență artificială numit „Amy Ingram” a fost suficient de realist pentru a-i determina pe unii utilizatori să trimită note de dragoste și chiar încercați să o vizitați la serviciu.

Iason Gabriel, un om de știință din echipa de cercetare în etică a DeepMind și coautor al lucrării, nu a răspuns la lui Decriptare cerere de comentarii.

Cu toate acestea, într-un tweet, Garbriel a avertizat că „formele de asistent din ce în ce mai personale și asemănătoare omului introduc noi întrebări despre antropomorfism, confidențialitate, încredere și relații adecvate cu AI”.

Deoarece „milioane de asistenți AI ar putea fi desfășurați la un nivel societal în care vor interacționa între ei și cu non-utilizatori”, Gabriel a spus că crede în nevoia de mai multe garanții și o abordare mai holistică a acestui nou fenomen social.

Lucrarea de cercetare discută, de asemenea, importanța alinierii valorii, a siguranței și a utilizării greșite în dezvoltarea asistenților AI. Chiar dacă asistenții AI ar putea ajuta utilizatorii să-și îmbunătățească bunăstarea, să-și îmbunătățească creativitatea și să-și optimizeze timpul, autorii au avertizat despre riscuri suplimentare, cum ar fi nealinierea cu interesele utilizatorilor și ale societății, impunerea de valori altora, utilizarea în scopuri rău intenționate și vulnerabilitate. la atacuri adverse.

Pentru a aborda aceste riscuri, echipa DeepMind recomandă dezvoltarea unor evaluări cuprinzătoare pentru asistenții AI și accelerarea dezvoltării de asistenți AI benefici din punct de vedere social.

„Ne aflăm în prezent la începutul acestei ere a schimbărilor tehnologice și societale. Prin urmare, avem o oportunitate de a acționa acum – în calitate de dezvoltatori, cercetători, factori de decizie politică și părți interesate publice – pentru a modela tipul de asistenți AI pe care vrem să-i vedem în lume.”

Nealinierea AI poate fi atenuată prin Reinforcement Learning Through Human Feedback (RLHF), care este utilizat pentru antrenarea modelelor AI. Experți precum Paul Christiano, care a condus echipa de aliniere a modelelor lingvistice la OpenAI și acum conduce Centrul non-profit de cercetare al alinierii, avertizează că gestionarea necorespunzătoare a metodelor de instruire AI ar putea sfârşit în catastrofă.

„Cred că poate există o șansă de 10-20% de preluare a IA, [cu] mulți [sau] majoritatea oamenilor morți”, Paul Christiano a spus pe podcastul Bankless anul trecut. „O iau destul de în serios.”

Editat de Ryan Ozawa.

Fiți la curent cu știrile cripto, primiți actualizări zilnice în căsuța dvs. de e-mail.

spot_img

Ultimele informații

spot_img

Chat cu noi

Bună! Cu ce ​​​​vă pot ajuta?