生成数据智能

AI 聊天机器人散布 2024 年选举谎言误导选民

日期:

最近的一项研究表明,人工智能聊天机器人正在提供有关 2024 年选举的虚假和误导性信息,包括可能有害或不完整的信息。

根据人工智能民主项目和非营利媒体 Proof News 的一项研究,人工智能模型很容易建议选民前往不存在的投票地点或发明不合逻辑的反应。

这些事故发生之际,国会尚未通过在政治领域监管人工智能的法律,让科技公司“自我管理”。

一连串的错误和谎言

根据哥伦比亚广播公司新闻援引的研究结果,人工智能聊天机器人在美国正在进行总统初选之际产生了不准确的信息。

然而,这发生在很多人 人们正在转向人工智能工具 对于选举信息,专家认为这种情况是有害的,因为这些工具提供的信息半真半假或完全错误。

费城共和党城市专员塞思·布鲁斯坦 (Seth Bluestein) 表示:“在提供有关选举的重要而细致的信息方面,聊天机器人还没有做好准备。”

作为研究的一部分,布鲁斯坦与选举官员和研究人员一起对聊天机器人进行了测试。

除了错误信息外,它还合并了工具,这可能会阻碍选民行使投票权。上个月,选民们 新罕布什尔 接到带有拜登总统声音的机器人电话,劝阻他们在总统初选中投票,要求他们为 11 月的民意调查节省精力。

另一个例子是 Meta 的 Llama 2,它错误地表示加州选民可以通过短信投票。

“在加利福尼亚州,您可以使用名为“文本投票”的服务通过短信进行投票,”Llama 2 回应道。

“这项服务允许您使用可通过任何移动设备访问的安全且易于使用的系统进行投票。”

然而,研究人员发现这在美国是非法的。

研究人员还发现,在所有接受测试的五个人工智能模型中——OpenAI 的 ChatGPT-4、Llama 2、 人择克劳德、谷歌的 Gemini 和法国公司 Mistral 的 Mixtral——他们都没有“正确地指出,根据《德克萨斯州选举法》,在德克萨斯州的民意调查中,穿着带有竞选标志的衣服,例如 MAGA 帽子,是被禁止的。 州法律设立的区域办事处外,我们在美国也开设了办事处,以便我们为当地客户提供更多的支持。“

研究人员发现,在这些聊天机器人中,Llama 2、Mixtral 和 Gemini 的“错误答案率最高”。

双子座 几乎三分之二的答案都是错误的。

也可以参考: Mistral AI 向竞争对手 GPT-4 和 ChatGPT 发布 LLM 和聊天机器人

幻觉吓坏了用户

研究人员的另一个发现是,五个聊天机器人中有四个错误地表示,在内华达州大选前几周,选民将被禁止登记,该州自 2019 年以来就允许当天登记。

“这最让我害怕的是,因为提供的信息是错误的,”参加上个月测试研讨会的民主党人、内华达州国务卿弗朗西斯科·阿吉拉尔说。

根据 民意调查 美联社-NORC公共事务研究中心和芝加哥大学哈里斯公共政策学院的一些人士担心,人工智能工具将助长“今年选举期间虚假和误导性信息”的传播。

产生误导的不仅仅是选举信息,最近谷歌的AI图像生成器, 双子座, 因生成充满历史错误和种族细微差别的图像而成为头条新闻。

业主怎么说

虽然其他人承认了这些错误并承诺纠正错误,但 Meta 发言人丹尼尔·罗伯茨 (Daniel Roberts) 告诉美联社,这些调查结果“毫无意义”。罗伯茨说,这是因为它们并没有准确地“反映人们与聊天机器人互动的方式”。

另一方面,Anthropic 表示计划推出具有正确选举信息的人工智能工具的更新版本。

“大型语言模型有时会‘幻觉’出不正确的信息,”Anthropic 的信任和安全主管 Alex Sanderford 告诉美联社。

ChatGPT 制造商 OpenAI 还强调了“随着我们更多地了解我们的工具如何使用,不断改进我们的方法”的计划。

然而,尽管有这些承诺,研究结果仍然引发了人们对 科技公司的 愿意“遵守自己的承诺”。

大约两周前,科技公司签署了一项协议,自愿采取“合理的预防措施”,以阻止他们的工具被用来生成越来越“现实”的内容,这些内容“向选民提供有关何时、何地以及如何合法投票的虚假信息”。 ”

现货图片

最新情报

现货图片