Generativní datová inteligence

Uživatelé AI Assistant by si k nim mohli vyvinout „emocionální náklonnost“, varuje Google – dešifrovat

Datum:

Virtual personal assistants powered by artificial intelligence are becoming ubiquitous across technology platforms, with every major tech firm adding AI to their services and dozens of specializované služby tumbling onto the market. While immensely useful, researchers from Google say humans could become too emotionally attached to them, leading to a host of negative social consequences.

Nový výzkum papír from Google’s DeepMind AI research laboratory highlights the potential benefits of advanced, personalized AI assistants to transform various aspects of society, saying they “could radically alter the nature of work, education, and creative pursuits as well as how we communicate, coordinate, and negotiate with one another, ultimately influencing who we want to be and to become.”

Tento obrovský dopad by samozřejmě mohl být dvousečným mečem, pokud bude vývoj umělé inteligence pokračovat v rychlosti bez promyšleného plánování.

Jedno klíčové riziko? Vytváření nevhodně blízkých vazeb – což by se mohlo zhoršit, pokud je asistentovi prezentována podoba nebo tvář jako člověk. "Tito umělí agenti mohou dokonce vyznávat svou domnělou platonickou nebo romantickou náklonnost k uživateli, čímž pokládají základy pro uživatele, aby si vytvořili dlouhodobé emocionální vazby k AI," uvádí list.

Pokud by taková vazba nebyla zaškrtnuta, mohla by vést ke ztrátě autonomie uživatele a ztrátě sociálních vazeb, protože umělá inteligence by mohla nahradit lidskou interakci.

This risk is not purely theoretical. Even when AI was in a somewhat primitive state, an AI chatbot was influential enough to convince an user to commit suicide after a long chat back in 2023. Eight years ago, an AI-powered email assistant named “Amy Ingram” was realistic enough to prompt some users to send love notes and even attempt to visit her at work.

Iason Gabriel, vědecký pracovník výzkumného týmu DeepMind pro etiku a spoluautor článku, neodpověděl na Dešifrovat žádost o komentář.

Ve svém tweetu však Garbriel varoval, že „stále osobní a lidské formy asistenta zavádějí nové otázky týkající se antropomorfismu, soukromí, důvěry a vhodných vztahů s AI“.

Protože „miliony asistentů umělé inteligence by mohly být nasazeny na společenské úrovni, kde budou interagovat mezi sebou i s neuživateli,“ řekl Gabriel, že věří v potřebu většího zabezpečení a holistického přístupu k tomuto novému společenskému fenoménu.

Výzkumný dokument také pojednává o důležitosti sladění hodnot, bezpečnosti a zneužití při vývoji asistentů AI. I když by asistenti umělé inteligence mohli uživatelům pomoci zlepšit jejich pohodu, zvýšit jejich kreativitu a optimalizovat jejich čas, autoři varovali před dalšími riziky, jako je nesoulad se zájmy uživatelů a společnosti, vnucování hodnot ostatním, použití pro škodlivé účely a zranitelnost. k nepřátelským útokům.

K řešení těchto rizik doporučuje tým DeepMind vypracovat komplexní hodnocení pro asistenty AI a urychlit vývoj společensky prospěšných asistentů AI.

„V současné době stojíme na začátku této éry technologických a společenských změn. Máme proto příležitost jednat nyní – jako vývojáři, výzkumníci, tvůrci politik a veřejné zainteresované strany – a utvářet druh asistentů AI, které chceme ve světě vidět.“

AI misalignment can be mitigated through Reinforcement Learning Through Human Feedback (RLHF), which is used to train AI models. Experts like Paul Christiano, who ran the language model alignment team at OpenAI and now leads the non-profit Alignment Research Center, warn that improper management of AI training methods could end in catastrophe.

“I think maybe there’s something like a 10-20% chance of AI takeover, [with] many [or] most humans dead, ” Paul Christiano řekl on the Bankless podcast last year. “I take it quite seriously.”

Upravil Ryan Ozawa.

Mějte přehled o krypto novinkách, dostávejte denní aktualizace do vaší schránky.

spot_img

Nejnovější inteligence

spot_img

piš si s námi

Ahoj! Jak vám mohu pomoci?