生成数据智能

谷歌警告称,人工智能助理用户可能会对他们产生“情感依恋” - 解密

日期:

由人工智能驱动的虚拟个人助理在技术平台上变得无处不在,各大科技公司都在使用 添加人工智能 他们的服务和数十个 专门服务 跌落市场。谷歌的研究人员表示,虽然它们非常有用,但人类可能会在情感上过于依赖它们,从而导致一系列负面的社会后果。

一个新的 研究报告 来自谷歌 DeepMind 人工智能研究实验室的专家强调了先进的个性化人工智能助手在改变社会各个方面的潜在好处,称它们“可以从根本上改变工作、教育和创造性追求的性质,以及我们沟通、协调和谈判的方式”彼此之间,最终影响我们想成为什么样的人。”

当然,如果人工智能发展在没有深思熟虑的规划的情况下继续加速发展,这种巨大的影响可能是一把双刃剑。

一项关键风险?形成不适当的亲密关系——如果助理看到类似人类的形象或面孔,这种关系可能会加剧。该论文称:“这些人工智能代理甚至可能向用户表达他们所谓的柏拉图式或浪漫的感情,为用户对人工智能形成长期的情感依恋奠定了基础。”

如果不加以控制,这种依恋可能会导致用户丧失自主权和社会联系,因为人工智能可能会取代人类互动。

这种风险并不纯粹是理论上的。即使人工智能处于某种原始状态,人工智能聊天机器人的影响力也足以 说服用户自杀 经过 2023 年的长时间聊天后。八年前,一位名为“Amy Ingram”的人工智能电子邮件助理足够现实,可以提示一些用户发送情书,甚至 尝试去上班时拜访她.

DeepMind 伦理研究团队的研究科学家、该论文的合著者 Iason Gabriel 没有回应 解密的 请求评论。

然而,加布里埃尔在推文中警告说,“越来越个性化和人性化的助理形式带来了有关拟人化、隐私、信任以及与人工智能的适当关系的新问题。”

加布里埃尔表示,因为“数以百万计的人工智能助手可以部署在社会层面,他们可以相互之间以及与非用户进行互动”,他认为需要更多的保障措施和更全面的方法来应对这一新的社会现象。

该研究论文还讨论了人工智能助手开发中价值调整、安全和滥用的重要性。尽管人工智能助手可以帮助用户改善福祉、增强创造力并优化时间,但作者警告称,还存在其他风险,例如与用户和社会利益不一致、将价值观强加于他人、用于恶意目的以及脆弱性对抗性攻击。

为了应对这些风险,DeepMind团队建议对AI助手进行全面评估,并加快开发对社会有益的AI助手。

“我们目前正处于这个技术和社会变革时代的开端。因此,作为开发人员、研究人员、政策制定者和公共利益相关者,我们现在有机会采取行动,塑造我们希望在世界上看到的人工智能助手。”

人工智能错位可以通过人类反馈强化学习 (RLHF) 来缓解,RLHF 用于训练人工智能模型。保罗·克里斯蒂安诺 (Paul Christiano) 等专家警告说,人工智能训练方法的管理不当可能会导致 OpenAI 的语言模型对齐团队的负责人、非营利性对齐研究中心的负责人。 以灾难告终.

“我认为人工智能接管的可能性可能有 10-20%,[许多][或]大多数人类已经死亡,”保罗·克里斯蒂安诺 (Paul Christiano) 说过 去年在 Bankless 播客上。 “我非常认真地对待这件事。”

编辑 小泽赖恩.

随时了解加密新闻,在您的收件箱中获取每日更新。

现货图片

最新情报

现货图片

在线答疑

你好呀! 我怎么帮你?