研究人员警告称,人工智能“群体”可能加剧在线虚假信息和操控。

CN
Decrypt
關注
3 小時前

根据周四在《科学》上发布的一份新报告,容易被检测到的僵尸网络时代即将结束。在这项研究中,研究人员警告说,虚假信息活动正转向能够模仿人类行为、实时适应并且需要很少人类监督的自主AI群体,这使得检测和阻止这些活动的工作变得更加复杂。

由包括牛津大学、剑桥大学、加州大学伯克利分校、纽约大学和马克斯·普朗克研究所的研究人员组成的一个联盟撰写的论文描述了一个数字环境,在这个环境中,操控变得更难以识别。这些AI活动可以在更长的时间内维持叙事,而不是仅仅与选举或政治相关的短暂爆发。

“在政府手中,这些工具可能会压制异议或放大现任者的声音,”研究人员写道。“因此,只有在严格、透明和民主问责框架下进行管理时,才能考虑部署防御性AI。”

一个群体是一个自主AI代理的集合,它们共同工作以比单一系统更高效地解决问题或完成目标。研究人员表示,AI群体利用了社交媒体平台中现有的弱点,用户往往与对立观点隔绝。

“虚假新闻的传播速度和范围都被证明快于真实新闻,进一步加深了碎片化的现实,侵蚀了共享的事实基准,”他们写道。“最近的证据将优化参与度的内容策划与极化联系在一起,平台算法甚至在牺牲用户满意度的情况下放大分裂性内容,进一步恶化了公共领域。”

根据南加州大学计算机科学教授及Sahara AI首席执行官Sean Ren的说法,这种转变在主要平台上已经显现,他表示,AI驱动的账户越来越难以与普通用户区分。

“我认为更严格的KYC(客户身份验证)会在这里大有帮助,”Ren对Decrypt说。“如果创建新账户变得更困难,而监控垃圾邮件发送者变得更容易,那么代理使用大量账户进行协调操控就会变得更加困难。”

早期的影响活动主要依赖于规模而非微妙性,成千上万的账户同时发布相同的信息,这使得检测相对简单。相比之下,研究表示,AI群体展现出“前所未有的自主性、协调性和规模”。

Ren表示,仅靠内容审核不太可能阻止这些系统。他说,问题在于平台如何大规模管理身份。他表示,增强身份检查和限制账户创建可能使协调行为更容易被检测到,即使单个帖子看起来像是人类发布的。

“如果代理只能使用少量账户发布内容,那么检测可疑使用并禁止这些账户就容易得多,”他说。

没有简单的解决方案

研究人员得出结论,问题没有单一解决方案,潜在选项包括改善对统计异常协调的检测和提高对自动化活动的透明度,但他们表示,仅靠技术措施不太可能足够。

根据Ren的说法,财务激励仍然是协调操控攻击的持续驱动因素,即使平台引入了新的技术保护措施。

“这些代理群体通常由团队或供应商控制,他们从外部方或公司获得金钱激励以进行协调操控,”他说。“平台应该加强KYC和垃圾邮件检测机制,以识别和过滤被代理操控的账户。”

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接