生成的データ インテリジェンス

AIアシスタントユーザーはユーザーに対して「感情的な愛着」を抱く可能性がある、Googleが警告 – Decrypt

日付:

人工知能を活用した仮想パーソナル アシスタントは、あらゆる大手テクノロジー企業で、テクノロジー プラットフォーム全体で普及しつつあります。 AIの追加 彼らのサービスと数十の 専門サービス 市場に転がり込んできます。 Googleの研究者らは、非常に便利な一方で、人間がそれらに感情的に執着しすぎて、多くのマイナスの社会的影響をもたらす可能性があると述べている。

新しい 研究論文 Google の DeepMind AI 研究研究所の研究チームは、高度でパーソナライズされた AI アシスタントが社会のさまざまな側面を変革する潜在的な利点を強調し、「それらは仕事、教育、創造的な活動の性質、さらにはコミュニケーション、調整、交渉の方法を根本的に変える可能性がある」と述べています。お互いに協力し合い、最終的には私たちがなりたいもの、なりたいものに影響を与えます。」

もちろん、熟慮された計画なしに AI 開発が加速し続けた場合、この甚大な影響は諸刃の剣になる可能性があります。

重要なリスクは 1 つありますか?不適切な緊密な絆の形成。アシスタントに人間のような表現や顔を見せた場合、悪化する可能性があります。 「これらの人工エージェントは、ユーザーに対してプラトニックまたはロマンチックな愛情を告白することさえあり、ユーザーがAIに対して長期にわたる感情的な愛着を形成する基盤を築く可能性がある」と論文は述べている。

このような執着を放置すると、AI が人間のやり取りに取って代わる可能性があるため、ユーザーの自主性が失われ、社会的つながりが失われる可能性があります。

このリスクは純粋に理論的なものではありません。 AI がやや原始的な状態にあったときでも、AI チャットボットは十分な影響力を持っていました。 ユーザーに自殺するよう説得する 2023 年前、「エイミー イングラム」という名前の AI を活用した電子メール アシスタントは、一部のユーザーにラブ メモを送信したり、さらには 職場の彼女を訪ねようとする.

DeepMindの倫理研究チームの研究科学者で論文の共著者であるイアソン・ガブリエル氏は回答しなかった。 復号化 コメントを求める

しかし、ガーブリエル氏はツイートの中で、「ますます個人的で人間らしいアシスタントの形態が、擬人化、プライバシー、信頼、AIとの適切な関係に関して新たな疑問をもたらしている」と警告した。

なぜなら「何百万ものAIアシスタントが社会レベルで導入され、AIアシスタント同士や非ユーザーと対話する可能性がある」ため、この新たな社会現象に対して、より多くの安全策とより総合的なアプローチが必要だとガブリエル氏は信じていると述べた。

研究論文では、AI アシスタントの開発における価値の整合性、安全性、誤用の重要性についても説明されています。 AI アシスタントはユーザーの幸福度の向上、創造性の向上、時間の最適化に役立つ可能性がありますが、著者らは、ユーザーや社会の利益との不一致、他者への価値観の押し付け、悪意のある目的での使用、脆弱性などの追加のリスクについて警告しました。敵対的な攻撃に。

これらのリスクに対処するために、DeepMind チームは AI アシスタントの包括的な評価を開発し、社会的に有益な AI アシスタントの開発を加速することを推奨しています。

「私たちは現在、テクノロジーと社会の変革の時代の始まりに立っています。したがって、私たちは今、開発者、研究者、政策立案者、公共の利害関係者として、世界で見たい種類の AI アシスタントを形作るために行動する機会を持っています。」

AI のずれは、AI モデルのトレーニングに使用されるヒューマン フィードバックによる強化学習 (RLHF) によって軽減できます。 OpenAI で言語モデル アライメント チームを率い、現在は非営利アライメント リサーチ センターを率いているポール クリスティアーノのような専門家は、AI トレーニング方法の不適切な管理により、次のような可能性があると警告しています。 大惨事に終わる.

「AIが乗っ取る可能性はおそらく10~20%くらいあると思います。その場合、多くの人間が死んでしまいます」ポール・クリスティアーノ 昨年のBanklessポッドキャストで。 「私はそれをかなり真剣に受け止めています。」

による編集 ライアン・オザワ.

暗号ニュースを常に把握し、受信トレイで毎日更新を入手してください。

スポット画像

最新のインテリジェンス

スポット画像

私たちとチャット

やあ! どんな御用でしょうか?