2024年成为了一个严峻的警告,提醒人们如果不采取保护措施,人工智能(AI)可能带来的危险。在全球范围内,从印度的大规模民主活动到台湾紧张的政治气候,AI生成的虚假信息活动留下了深刻的印记。
在台湾,深度伪造的新闻主播模糊了现实与虚构之间的界限,而在美国,一段假音频声称拜登总统劝阻新罕布什尔州的民主党人投票,突显了AI在政治操控中被武器化的容易程度。这种合成媒体的数量和复杂性让许多人感到在不确定的海洋中迷失,难以分辨事实与虚构。
然而,一些专家,如Swarm Network的创始人兼首席执行官Yannick Myson,认为问题比选举操控更为深刻。他提到AI引发的精神病,这是一种令人不安的现象,表现为人们产生夸大的妄想,一些研究将其与与AI聊天机器人长时间互动联系在一起。这种AI引发的精神病的代价是巨大的;一些人失去了工作,而另一些人则接受了精神治疗。
“正如深度伪造利用我们的视觉处理捷径,AI精神病则利用我们的心理脆弱,聊天机器人成为验证和放大妄想思维的完美回音室,”Myson说。
Myson认为,目前的反应措施,如拼凑式的事实核查倡议,根本无法应对这一日益严重的问题。“行业意识到的是,拼凑式的事实核查无法跟上合成媒体的速度或AI系统的心理操控,”他断言。
他的解决方案,体现在Swarm Network中,是一种主动的做法:大规模嵌入验证。这涉及在内容创作的最初阶段建立来源,确保数字信息的来源可以被追踪和认证。此外,Myson提倡去中心化的验证系统,在信息传播到数字领域时进行交叉检查和验证。
这种强大的“真相基础设施”的愿景与AI行业日益增长的担忧产生共鸣。随着技术的快速发展,其滥用的伦理和社会影响变得愈加明显。由复杂的AI生成虚假信息引发的对数字信息的信任侵蚀,对民主进程、社会凝聚力,甚至个人心理健康构成了重大威胁。
为此,一些人提倡采取监管响应,引用过去的实例,认为这在保护用户免受新兴技术潜在风险方面是一个重要工具。然而,批评者警告说,这可能会产生抑制创新的意外效果,Myson似乎对此表示认同。
“监管可以有所帮助,但前提是避免将真相集中化的陷阱。我们已经看到政府利用‘虚假信息法’来压制辩论,”Swarm Network的首席执行官表示。
为了支持这一论断,Myson指出,欧盟官员据称正在利用欧盟的数字服务法(DSA),该法要求删除广泛定义的“有害”内容,作为“限制全球开放讨论的工具。”Myson认为,欧盟AI法案也产生了类似的问题。
Myson主张,不应制定像DSA或AI法案这样的法律,而应强制要求透明度、清晰标记合成媒体,以及像C2PA这样的开放来源标准。“规则应当强制提供证据,而非意见,”他辩称。
根据这位首席执行官的说法,Meta和TikTok等主要社交媒体平台意识到了这一点,并已转向更去中心化的事实核查方法。
“这一转变代表了对集中式事实核查造成瓶颈和单点故障的根本认识。内容验证的未来并不是赋予政府或企业决定什么是真实的权力,”首席执行官表示。
Myson认为,这一转变使得Swarm Network提供的解决方案变得至关重要。Swarm并不依赖于少数集中式的事实核查者,而是使用“与人类审查员协作的AI代理,创建可审计的链上验证声明记录。”
实际上,AI代理正在迅速从理论概念转向实际应用,根本改变了各个行业的运作方式。这些代理的主要好处在于它们能够自动化和优化。它们可以在短时间内处理大量数据,识别出人类可能忽视的模式,并且能够24/7不知疲倦地工作。
然而,AI代理的广泛采用也带来了需要仔细解决的复杂挑战。为了克服这些挑战,Myson表示他公司的方法“是将代理转变为透明的协作者,而不是不受控制的神谕。”他补充道:
“在Swarm中,代理将信息分解为小的、可测试的声明,它们相互交叉检查,在需要细微差别的地方,人类介入。每一步都被记录并锚定在链上,因此它们的推理是可重放的。简而言之:没有黑箱,只有可验证的轨迹。”
与此同时,Myson认为,在未来五年内,事实核查将从手动过程演变为数字生活的内置功能,AI代理将根据其透明度而非仅仅是速度进行评估。最终愿景是将真相作为互联网的基础层。
“就像SSL成为网络流量的默认设置一样,真相协议将成为信息的默认设置。这就是我们如何防止AI让世界淹没在噪音中,”Myson总结道。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。