Generatív adatintelligencia

Az AI-asszisztens felhasználók „érzelmi kötődést” alakíthatnak ki hozzájuk, figyelmeztet a Google – Decrypt

Találka:

A mesterséges intelligenciával működő virtuális személyi asszisztensek mindenütt jelen vannak a technológiai platformokon, minden nagyobb technológiai cégnél AI hozzáadásával szolgáltatásaikra és több tucat speciális szolgáltatások piacra zuhanni. Bár rendkívül hasznosak, a Google kutatói szerint az emberek érzelmileg túlságosan kötődhetnek hozzájuk, ami számos negatív társadalmi következménnyel járhat.

Egy új kutatási papír A Google DeepMind AI kutatólaboratóriuma kiemeli a fejlett, személyre szabott mesterséges intelligencia asszisztensek potenciális előnyeit a társadalom különböző aspektusainak átalakításához, mondván, hogy „radikálisan megváltoztathatják a munka, az oktatás és a kreatív tevékenységek természetét, valamint azt, ahogyan kommunikálunk, koordinálunk és tárgyalunk. egymással, végső soron befolyásolva azt, hogy kik akarunk lenni, és milyenek akarunk lenni.”

Ez a túlméretezett hatás természetesen kétélű fegyver lehet, ha a mesterséges intelligencia fejlesztése átgondolt tervezés nélkül is felgyorsul.

Az egyik legfontosabb kockázat? Nem megfelelően szoros kötelékek kialakulása – ami súlyosbodhat, ha az asszisztenst emberszerű ábrázolással vagy arccal mutatják be. „Ezek a mesterséges ágensek akár a felhasználó iránti vélt plátói vagy romantikus vonzalmukat is megvallhatják, megalapozva a felhasználókat a mesterséges intelligencia iránti hosszú távú érzelmi kötődés kialakításában” – írja a lap.

Ha nem ellenőrizzük, egy ilyen kötődés a felhasználó autonómiájának elvesztéséhez és a társadalmi kapcsolatok elvesztéséhez vezethet, mivel az AI helyettesítheti az emberi interakciót.

Ez a kockázat nem pusztán elméleti. Még akkor is, amikor a mesterséges intelligencia kissé primitív állapotban volt, egy AI chatbot elég befolyásos volt ahhoz meggyőzni a felhasználót az öngyilkosságról hosszas csevegés után 2023-ban. Nyolc évvel ezelőtt az „Amy Ingram” nevű, mesterséges intelligenciával működő e-mail asszisztens elég valósághű volt ahhoz, hogy néhány felhasználót szerelmes levelek küldésére, sőt megpróbálja meglátogatni őt a munkahelyén.

Iason Gabriel, a DeepMind etikai kutatócsoportjának kutatója és a cikk társszerzője nem válaszolt dekódolása a megjegyzés kérése.

Egy tweetben Garbriel azonban arra figyelmeztetett, hogy „az asszisztens egyre személyesebb és emberszerűbb formái új kérdéseket vetnek fel az antropomorfizmus, a magánélet, a bizalom és az AI-val való megfelelő kapcsolatok terén”.

Mivel „a mesterséges intelligencia asszisztenseinek millióit lehetne bevetni olyan társadalmi szinten, ahol kapcsolatba léphetnek egymással és a nem felhasználókkal”, Gabriel elmondta, hogy több biztosítékra és holisztikusabb megközelítésre van szükség az új társadalmi jelenséghez.

A kutatási cikk az AI-asszisztensek fejlesztése során az értékegyeztetés, a biztonság és a visszaélések fontosságát is tárgyalja. Annak ellenére, hogy az AI-asszisztensek segíthetik a felhasználók jólétét, fokozzák kreativitásukat és optimalizálják az idejüket, a szerzők további kockázatokra figyelmeztettek, mint például a felhasználói és társadalmi érdekekkel való eltérés, az értékek másokra kényszerítése, a rosszindulatú felhasználás és a sebezhetőség. ellenséges támadásokra.

E kockázatok kezelése érdekében a DeepMind csapata átfogó értékelések kidolgozását javasolja az AI-asszisztensek számára, és felgyorsítja a társadalmilag előnyös AI-asszisztensek fejlesztését.

„Jelenleg a technológiai és társadalmi változások korszakának elején állunk. Ezért lehetőségünk van most – fejlesztőként, kutatóként, döntéshozóként és állami érdekeltként – fellépni, hogy olyan AI-asszisztenseket alakítsunk ki, amilyeneket a világban látni szeretnénk.”

A mesterséges intelligencia eltolódása mérsékelhető az RLHF (Reforcement Learning Through Human Feedback) segítségével, amelyet az AI-modellek betanításához használnak. Az olyan szakértők, mint Paul Christiano, aki az OpenAI nyelvi modell-összehangoló csapatát vezette, és jelenleg a non-profit Alignment Research Centert vezeti, arra figyelmeztetnek, hogy a mesterséges intelligencia képzési módszereinek nem megfelelő kezelése katasztrófával végződjön.

„Szerintem 10-20%-os esély van a mesterséges intelligencia hatalomátvételére, sok [vagy] a legtöbb ember meghalt.” Paul Christiano mondott a Bankless podcaston tavaly. – Nagyon komolyan veszem.

Szerkesztette Ryan Ozawa.

Maradjon naprakész a kriptográfiai hírekkel, és napi frissítéseket kaphat a postaládájában.

spot_img

Legújabb intelligencia

spot_img

Beszélj velünk

Szia! Miben segíthetek?