A mesterséges intelligenciával működő virtuális személyi asszisztensek mindenütt jelen vannak a technológiai platformokon, minden nagyobb technológiai cégnél AI hozzáadásával szolgáltatásaikra és több tucat speciális szolgáltatások piacra zuhanni. Bár rendkívül hasznosak, a Google kutatói szerint az emberek érzelmileg túlságosan kötődhetnek hozzájuk, ami számos negatív társadalmi következménnyel járhat.
Egy új kutatási papír A Google DeepMind AI kutatólaboratóriuma kiemeli a fejlett, személyre szabott mesterséges intelligencia asszisztensek potenciális előnyeit a társadalom különböző aspektusainak átalakításához, mondván, hogy „radikálisan megváltoztathatják a munka, az oktatás és a kreatív tevékenységek természetét, valamint azt, ahogyan kommunikálunk, koordinálunk és tárgyalunk. egymással, végső soron befolyásolva azt, hogy kik akarunk lenni, és milyenek akarunk lenni.”
Ez a túlméretezett hatás természetesen kétélű fegyver lehet, ha a mesterséges intelligencia fejlesztése átgondolt tervezés nélkül is felgyorsul.
Az egyik legfontosabb kockázat? Nem megfelelően szoros kötelékek kialakulása – ami súlyosbodhat, ha az asszisztenst emberszerű ábrázolással vagy arccal mutatják be. „Ezek a mesterséges ágensek akár a felhasználó iránti vélt plátói vagy romantikus vonzalmukat is megvallhatják, megalapozva a felhasználókat a mesterséges intelligencia iránti hosszú távú érzelmi kötődés kialakításában” – írja a lap.
Ha nem ellenőrizzük, egy ilyen kötődés a felhasználó autonómiájának elvesztéséhez és a társadalmi kapcsolatok elvesztéséhez vezethet, mivel az AI helyettesítheti az emberi interakciót.
Ez a kockázat nem pusztán elméleti. Még akkor is, amikor a mesterséges intelligencia kissé primitív állapotban volt, egy AI chatbot elég befolyásos volt ahhoz meggyőzni a felhasználót az öngyilkosságról hosszas csevegés után 2023-ban. Nyolc évvel ezelőtt az „Amy Ingram” nevű, mesterséges intelligenciával működő e-mail asszisztens elég valósághű volt ahhoz, hogy néhány felhasználót szerelmes levelek küldésére, sőt megpróbálja meglátogatni őt a munkahelyén.
Iason Gabriel, a DeepMind etikai kutatócsoportjának kutatója és a cikk társszerzője nem válaszolt dekódolása a megjegyzés kérése.
Egy tweetben Garbriel azonban arra figyelmeztetett, hogy „az asszisztens egyre személyesebb és emberszerűbb formái új kérdéseket vetnek fel az antropomorfizmus, a magánélet, a bizalom és az AI-val való megfelelő kapcsolatok terén”.
Mivel „a mesterséges intelligencia asszisztenseinek millióit lehetne bevetni olyan társadalmi szinten, ahol kapcsolatba léphetnek egymással és a nem felhasználókkal”, Gabriel elmondta, hogy több biztosítékra és holisztikusabb megközelítésre van szükség az új társadalmi jelenséghez.
A kutatási cikk az AI-asszisztensek fejlesztése során az értékegyeztetés, a biztonság és a visszaélések fontosságát is tárgyalja. Annak ellenére, hogy az AI-asszisztensek segíthetik a felhasználók jólétét, fokozzák kreativitásukat és optimalizálják az idejüket, a szerzők további kockázatokra figyelmeztettek, mint például a felhasználói és társadalmi érdekekkel való eltérés, az értékek másokra kényszerítése, a rosszindulatú felhasználás és a sebezhetőség. ellenséges támadásokra.
E kockázatok kezelése érdekében a DeepMind csapata átfogó értékelések kidolgozását javasolja az AI-asszisztensek számára, és felgyorsítja a társadalmilag előnyös AI-asszisztensek fejlesztését.
„Jelenleg a technológiai és társadalmi változások korszakának elején állunk. Ezért lehetőségünk van most – fejlesztőként, kutatóként, döntéshozóként és állami érdekeltként – fellépni, hogy olyan AI-asszisztenseket alakítsunk ki, amilyeneket a világban látni szeretnénk.”
A mesterséges intelligencia eltolódása mérsékelhető az RLHF (Reforcement Learning Through Human Feedback) segítségével, amelyet az AI-modellek betanításához használnak. Az olyan szakértők, mint Paul Christiano, aki az OpenAI nyelvi modell-összehangoló csapatát vezette, és jelenleg a non-profit Alignment Research Centert vezeti, arra figyelmeztetnek, hogy a mesterséges intelligencia képzési módszereinek nem megfelelő kezelése katasztrófával végződjön.
„Szerintem 10-20%-os esély van a mesterséges intelligencia hatalomátvételére, sok [vagy] a legtöbb ember meghalt.” Paul Christiano mondott a Bankless podcaston tavaly. – Nagyon komolyan veszem.
Szerkesztette Ryan Ozawa.
Maradjon naprakész a kriptográfiai hírekkel, és napi frissítéseket kaphat a postaládájában.
- SEO által támogatott tartalom és PR terjesztés. Erősödjön még ma.
- PlatoData.Network Vertical Generative Ai. Erősítse meg magát. Hozzáférés itt.
- PlatoAiStream. Web3 Intelligence. Felerősített tudás. Hozzáférés itt.
- PlatoESG. Carbon, CleanTech, Energia, Környezet, Nap, Hulladékgazdálkodás. Hozzáférés itt.
- PlatoHealth. Biotechnológiai és klinikai vizsgálatok intelligencia. Hozzáférés itt.
- Forrás: https://decrypt.co/227754/ai-assistant-users-could-develop-an-emotional-attachment-to-them-google-warns