新的OpenAI研究称最新的ChatGPT模型政治偏见下降了30%

CN
Decrypt
關注
11 小時前

OpenAI表示,其最新的ChatGPT模型显示出明显较少的政治偏见,因为该公司扩大了努力,使人工智能系统在语气和推理上显得更加平衡。

位于旧金山的公司周四发布了其模型行为部门的研究结果,该部门由Joanne Jang领导,研究用户提示和模型对齐如何影响ChatGPT的响应。

上个月,Jang成立了一个名为OAI Labs的研究驱动小组,专注于“发明和原型设计人们与人工智能协作的新界面”。

在其研究中,该团队旨在将一个主观问题转化为可量化的指标,以指导模型设计。

这些发现强调了OpenAI试图反击人们对人工智能系统在政治或文化上倾向于某一方向的看法。

研究员Natalie Staudacher公开详细介绍了结果,称这项工作是OpenAI迄今为止最全面的尝试,旨在定义、测量和减轻大型语言模型中的政治偏见。

评估测试了模型对500个提示的响应,这些提示从中立到情感充沛,反映了用户在现实环境中如何框定政治问题。

此次发布紧随OpenAI本周早些时候的年度开发者大会,首席执行官Sam Altman在会上揭示了将ChatGPT转变为开发者应用平台的新工具。

虽然该公告专注于扩展模型的能力,但周四的研究则集中在这些能力的表现上,特别是在中立性、语气和用户信任方面。

OpenAI表示,其最新的GPT-5 Instant和GPT-5 Thinking模型显示出比GPT-4o和o3低30%的可测量偏见,尤其是在处理有争议或党派话题时。

“ChatGPT不应该在任何方向上有政治偏见,”Staudacher在X上写道,称该项目是她在OpenAI最“有意义”的贡献。

Staudacher表示,政治偏见仅在极少数情况下出现,并且“严重性较低”,即使在故意寻求挑起偏见或情感语言的压力测试下也是如此。

“数以百万计的人来到ChatGPT以理解他们周围的世界并形成自己的观点,”Staudacher写道。“通过定义偏见的含义,我们希望使我们的做法更加清晰,追究自己的责任,并通过建立共享定义来帮助他人。”

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接