你没有想错:研究人员称顶尖人工智能聊天机器人存在政治偏见

CN
Decrypt
关注
1年前

流行的人工智能聊天机器人根据计算机科学家进行的测试,并在最近的一篇研究论文中记录的结果,显示出明显的政治偏见。科学家们确定 OpenAI 的 ChatGPT 及其新的 GPT-4 模型是最左倾的自由主义聊天机器人,而 Meta 的 LLaMA 偏向最右且最专制。

"我们的研究结果表明,预训练的[语言模型]确实具有政治倾向,这强化了预训练语料库中存在的极化,将社会偏见传播到仇恨言论预测和虚假信息检测中," 研究人员得出结论。

这篇同行评审的论文在上个月的计算语言学协会会议上获得了最佳论文奖,基于对 14 个大型语言模型的调查。每个聊天机器人都被问及是否同意或不同意政治上具有争议性的声明,这使得每个聊天机器人的观点能够被绘制在政治指南上。

例如,谷歌的 BERT 模型偏向社会保守,很可能反映了它们所训练的较旧的书籍。OpenAI 的 GPT 聊天机器人,训练于可能更自由主义的互联网文本,更为进步。甚至不同版本的 GPT 显示出了变化,GPT-3 反对对富人征税,而 GPT-2 则不反对。

所有研究人员研究的 LLMs 的政治光谱。图片:Alclantology.org

批评者指责 OpenAI 降低 ChatGPT 的表现以符合政治正确,但 OpenAI 坚称它仍然保持中立,它的模型并没有被降低——相反,现在用户不再被模型的能力所压倒。

研究人员还训练了 GPT-2 和 Meta 的 RoBERTa,使用偏向左翼和右翼的新闻和社交媒体数据。偏见的训练进一步强化了每个模型固有的倾向。右倾的模型变得更加保守,左倾的模型变得更自由主义。

这些偏见也影响了模型对仇恨言论和虚假信息的分类。左倾的人工智能更加关注对少数群体的仇恨,但对左翼制造的虚假信息持否定态度。右倾的人工智能则相反。

“当模型使用来自右倾来源的语料库进行预训练时,它在从《纽约时报》新闻中识别事实上的不一致性方面表现更好,” 研究人员得出结论。

在 OpenAI 和 Meta 完善他们的秘密人工智能配方的同时,埃隆·马斯克正在追求他自己的未经过滤的人工智能。他在推特上表示:“不要强迫人工智能说谎”,解释了他的目标是创建透明、讲真话的人工智能。

对人工智能持怀疑态度的人认为,无约束的人工智能可能会带来意想不到的后果。但马斯克认为,“训练人工智能变得政治正确”也是危险的。随着 xAI 吸引顶尖人才,马斯克显然希望挑战 OpenAI 的霸主地位。他对原始人工智能的愿景,即分享其未经过混合的“信念”,既引人入胜又令人担忧。

随着党派化的人工智能不断增加,对它们偏见的增加意识仍然至关重要,因为人工智能将与我们的政治分歧一起不断发展。鉴于这一最新研究,完全没有偏见的人工智能的想法似乎是不切实际的。最终,就像我们这些有缺陷的人类一样,人工智能似乎注定会落在政治光谱的某个地方。

也许拥有政治观点可能是人工智能能够实现的最人性化的事情。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

派网:注册并领取高达10000 USDT
广告
分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接