去年,香港警方逮捕了一群负责4600万美元加密货币投资诈骗的团伙,该团伙使用了深度伪造技术。该团伙与海外诈骗网络合作,创建了令人信服的虚假投资平台。如今,这些工具变得越来越先进,现已扩展到AI生成的视频,这一进展的速度远远超过了其他任何形式的媒体。
恶意AI导致了2024年全球超过120亿美元的损失。美国国土安全部现在称AI生成的深度伪造是对国家安全、金融和社会的“明确、当前和不断演变的威胁”。丹麦正在考虑修改其版权法,以打击未经授权的深度伪造,赋予每个人“对自己身体、面部特征和声音的权利”。
深度伪造显然是一个日益严重的社会威胁。为了捍卫数字世界,我们需要AI是可验证的,内容审核需要有加密证明的支持,而不仅仅是信任。零知识机器学习(zkML)技术正在开辟新的方法,以证明输出是有效的,而不暴露底层模型或数据。
当前的审核系统存在问题
当代内容审核难以跟上AI操控的步伐。当一段恶意内容在多个平台上传时,每个平台必须独立重新分类该重复内容,浪费计算资源并增加延迟。
更糟糕的是,每个平台的算法和政策可能不同,在一个网站上被标记的视频在另一个网站上可能被认为是良性的。整个过程缺乏透明度,平台的AI决策存在于一个“黑箱”中。用户很少知道某些内容被删除或允许的原因。
这种分散的审核方法使得检测工具的表现更加困难。一项研究发现检测模型的准确性在真实的野生数据上“急剧下降”,在面对新型深度伪造时,有时会降到随机猜测的水平。
企业的准备情况令人担忧,42%的公司承认他们对识别深度伪造的能力“仅有些许信心”。不断重新扫描内容和追逐新的伪造品是一场注定要失败的战斗。我们需要一个系统性的解决方案,使审核结果在网络上可移植、可信和高效。
解决方案:可验证的审核
零知识机器学习(zkML)提供了一种验证基于AI的审核决策的方法,无需重复工作或披露敏感信息。其理念是让AI分类器不仅生成一个标签,还生成该分类的加密证明。
想象一个审核模型,它评估一段内容(图像、视频、文本等),并为其分配一个或多个标签(例如,适合工作、不适合工作、暴力、色情等)。除了标签外,系统还生成一个零知识证明,证明一个已知的AI模型处理了该内容并产生了这些分类结果。该证明嵌入到内容的元数据中,使内容本身能够携带一个防篡改的审核徽章。内容生产者或分发者也可以在加密上与其内容的审核状态绑定。
当内容被上传或分享时,平台可以通过轻量级的加密检查即时验证该证明。如果证明有效,平台就可以信任提供的分类,而无需重新运行自己的AI分析。
ZK嵌入审核的好处
让我们来思考一下这里的好处。验证一个证明比在每次上传时运行一个大型AI模型要快得多且简单。首先,我们实现了内容审核的可移植性,其状态可以随内容一起传播。我们还通过公开可验证的结果确保透明度,允许任何人验证加密证明并确认内容是如何被标记的。
在这种情况下,审核变成了每个内容项的一次性计算,后续检查减少为廉价的证明验证。所有这些都转化为巨大的计算节省、内容交付的低延迟,以及更多的AI资源专注于真正的新内容或有争议的内容。
随着AI生成内容的持续爆炸,zk启用的审核可以处理这种规模。这种方法减轻了平台的负担,使审核能够实时跟上高流量的流媒体。
AI的完整性层
零知识证明提供了AI基础审核所需的缺失完整性层。它们允许我们证明AI决策(如内容分类)是正确做出的,而无需透露敏感输入或模型的内部信息。这意味着公司可以执行审核政策,并与彼此或公众分享可信的结果,同时保护用户隐私和专有的AI逻辑。
在内容层面嵌入可验证性可以将不透明和冗余的审核系统转变为一个去中心化、加密可验证的信任网络。审核输出可以附带数学保证,而不是依赖平台说“信任我们的AI过滤器”。如果我们现在不整合这种可扩展的可验证性,AI驱动的操控和虚假信息可能会侵蚀在线信任的最后一丝残余。
我们仍然可以将AI审核从一种信仰行为转变为一种证据行为——通过这样做,重建对平台的信任,不仅如此,还重建对塑造公共话语、选举和我们共同现实感的信息生态系统的信任。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。