Generative Data Intelligence

Користувачі AI Assistant можуть розвинути до них «емоційну прив’язаність», Google попереджає – Розшифруйте

Дата:

Віртуальні персональні помічники на основі штучного інтелекту стають повсюдними на технологічних платформах, у кожній великій технологічній компанії додавання ШІ до своїх послуг і десятки спеціалізовані послуги падіння на ринок. Незважаючи на те, що вони надзвичайно корисні, дослідники з Google кажуть, що люди можуть занадто емоційно прив’язуватися до них, що призведе до низки негативних соціальних наслідків.

Новий дипломну роботу з дослідницької лабораторії Google DeepMind AI підкреслює потенційні переваги передових персоналізованих помічників AI для трансформації різних аспектів суспільства, кажучи, що вони «можуть радикально змінити характер роботи, освіти та творчих пошуків, а також те, як ми спілкуємося, координуємо та домовляємося один з одним, зрештою впливаючи на те, ким ми хочемо бути і ким стати».

Звичайно, такий величезний вплив може стати палкою з двома кінцями, якщо розвиток штучного інтелекту продовжуватиме прискорюватися без ретельного планування.

Один ключовий ризик? Формування невідповідно тісних зв’язків, які можуть посилитися, якщо помічникові буде представлено людське зображення чи обличчя. «Ці штучні агенти можуть навіть сповідувати свою передбачувану платонічну або романтичну прихильність до користувача, закладаючи основу для формування у користувачів давньої емоційної прив’язаності до ШІ», — йдеться в статті.

Залишене без контролю таке приєднання може призвести до втрати автономії для користувача та втрати соціальних зв’язків, оскільки штучний інтелект може замінити взаємодію людей.

Цей ризик не є суто теоретичним. Навіть коли штучний інтелект був у дещо примітивному стані, чат-бот ШІ був достатньо впливовим, щоб переконати користувача вчинити самогубство після довгої розмови у 2023 році. Вісім років тому помічник електронної пошти на основі штучного інтелекту на ім’я «Емі Інґрем» був достатньо реалістичним, щоб спонукати деяких користувачів надсилати любовні записки та навіть спробувати відвідати її на роботі.

Іасон Габріель, науковий співробітник групи досліджень етики DeepMind і співавтор статті, не відповів Розшифрувати запит на коментар.

Однак у твіті Гарбріель попередив, що «дедалі більше особисті та людиноподібні форми помічника ставлять нові питання щодо антропоморфізму, конфіденційності, довіри та належних стосунків із ШІ».

Оскільки «мільйони помічників штучного інтелекту можуть бути розгорнуті на суспільному рівні, де вони взаємодіятимуть як один з одним, так і з некористувачами», Габріель сказав, що вірить у необхідність додаткових заходів безпеки та більш цілісного підходу до цього нового соціального явища.

У дослідницькій статті також обговорюється важливість вирівнювання цінностей, безпеки та неправильного використання в розробці помічників ШІ. Незважаючи на те, що помічники штучного інтелекту можуть допомогти користувачам покращити своє самопочуття, підвищити творчі здібності та оптимізувати свій час, автори попередили про додаткові ризики, такі як невідповідність інтересам користувача та суспільства, нав’язування цінностей іншим, використання зі зловмисними цілями та вразливість. до ворожих атак.

Щоб усунути ці ризики, команда DeepMind рекомендує розробити комплексні оцінки для помічників ШІ та прискорити розробку соціально корисних помічників ШІ.

«Зараз ми перебуваємо на початку цієї ери технологічних і суспільних змін. Тому ми маємо можливість діяти зараз — як розробники, дослідники, політики та громадські стейкхолдери — щоб сформувати помічників ШІ, яких ми хочемо бачити у світі».

Розбіжність штучного інтелекту можна пом’якшити за допомогою підкріпленого навчання за допомогою зворотного зв’язку людини (RLHF), який використовується для навчання моделей штучного інтелекту. Такі експерти, як Пол Крістіано, який очолював команду узгодження мовної моделі в OpenAI, а зараз очолює некомерційний дослідницький центр вирівнювання, попереджають, що неправильне керування методами навчання ШІ може закінчиться катастрофою.

«Я думаю, що ймовірність захоплення штучним інтелектом становить приблизно 10-20%, якщо багато [або] більшість людей загинуть», — Пол Крістіано. сказав минулого року в подкасті Bankless. «Я сприймаю це досить серйозно».

За редакцією Раян Озава.

Будьте в курсі криптовалютних новин, отримуйте щоденні оновлення на свою поштову скриньку.

spot_img

Остання розвідка

spot_img

Зв'яжіться з нами!

Привіт! Чим я можу вам допомогти?