AI政治聊天机器人可以影响选民,新研究发现

CN
Decrypt
关注
6小时前

康奈尔大学和英国人工智能安全研究所的新研究发现,在受控的选举环境中,广泛使用的人工智能系统可能会将选民偏好转变多达15%。

这项研究发表在《科学》和《自然》上,结果出现在各国政府和研究人员审视人工智能如何影响即将到来的选举周期之际,同时开发者试图清除其面向消费者模型中的偏见

“公众对生成性人工智能在政治劝说中的潜在使用及其对选举和民主的影响表示极大关注,”研究人员写道。“我们通过预注册实验来评估大型语言模型影响选民态度的能力,从而为这些担忧提供信息。”

这项在《自然》上进行的研究测试了近6000名来自美国、加拿大和波兰的参与者。参与者对一位政治候选人进行评分,与支持该候选人的聊天机器人交谈,然后再次对该候选人进行评分。

在这项研究的美国部分中,涉及2300人,针对2024年总统选举,聊天机器人在与参与者的表述偏好一致时产生了强化效果。当聊天机器人支持参与者反对的候选人时,偏好发生了更大的变化。研究人员在加拿大和波兰也报告了类似的结果。

研究还发现,政策导向的信息比基于个性的消息产生了更强的劝说效果。

对话的准确性因对话而异,支持右倾候选人的聊天机器人所提供的不准确陈述比支持左倾候选人的更多。

“这些发现带来了一个令人不安的暗示,即人工智能的政治劝说可以利用模型知识的不平衡,即使在明确指示保持真实的情况下,也会传播不均匀的不准确性,”研究人员表示

另一项在《科学》上进行的研究考察了劝说发生的原因。这项工作测试了19种语言模型,涉及76977名英国成年人,涵盖700多个政治问题。

“人们普遍担心对话式人工智能可能很快对人类信念施加前所未有的影响,”研究人员写道。

他们发现,提示技术对劝说的影响大于模型的大小。鼓励模型引入新信息的提示增加了劝说效果,但降低了准确性。

“鼓励大型语言模型提供新信息的提示在劝说人们方面是最成功的,”研究人员写道。

这两项研究的发表正值分析师和政策智库评估选民对人工智能在政府角色中作用的看法。

最近由哈特兰研究所和拉斯穆森报告进行的调查发现,年轻的保守派比自由派更愿意将人工智能赋予重大政府决策的权力。18至39岁的受访者被问及人工智能系统是否应该帮助指导公共政策、解释宪法权利或指挥主要军队。保守派表示出最高的支持水平。

哈特兰研究所格伦·C·哈斯金新兴问题中心主任唐纳德·肯达尔表示,选民常常错误地判断大型语言模型的中立性。

“我试图强调的一件事是消除人工智能无偏见的这种幻觉。它显然是有偏见的,其中一些是被动的,”肯达尔在接受Decrypt采访时表示,并补充说,当企业培训决策影响这些系统的行为时,对这些系统的信任可能是错误的。

“这些是大型硅谷公司在构建这些模型,我们已经看到近年来技术审查争议中,一些公司在内容分发方面并不羞于施加影响,”他说。“如果在大型语言模型中也发生了同样的概念,那么我们得到的就是一个有偏见的模型。”

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接