隐形墨水:研究人员探讨数字水印在人工智能生成内容中的弱点

CN
Decrypt
關注
1 年前

深度伪造技术的猖獗传播带来了重大风险——从制作未成年人的裸照到利用名人的深度伪造视频进行诈骗,区分人工智能生成内容(AIGC)和人类创作的内容的能力变得前所未有地关键。

水印技术是一种常见的防伪措施,常见于文件和货币,是一种用于识别此类内容的方法,通过添加有助于区分人工智能生成图像和非人工智能生成图像的信息。但最近的研究论文得出结论,简单甚至先进的水印方法可能并不足以防止发布人工智能材料作为人类创作所带来的风险。

该研究由新加坡南洋理工大学、S-Lab、重庆大学、Shannon.AI和浙江大学的科学家团队进行。

其中一位作者李冠霖告诉 Decrypt:“水印可以帮助人们知道内容是由人工智能生成还是人类创作的。” 但他补充说:“如果人工智能生成内容上的水印容易被移除或伪造,我们可以通过添加水印自由地让他人相信某件艺术品是由人工智能生成的,或者通过移除水印让人工智能生成内容看起来像是由人类创作的。”

该论文探讨了当前水印方法的各种漏洞。

“人工智能生成内容的水印方案容易受到对抗性攻击,可以在不知道秘钥的情况下移除水印,”论文写道。这种漏洞对于误导或恶意使用人工智能生成内容尤其具有现实世界的影响。

“如果一些恶意用户在移除水印后传播某些名人的人工智能生成的假图片,那么就不可能证明这些图片是由人工智能生成的,因为我们没有足够的证据,” 李告诉 Decrypt

李和他的团队进行了一系列实验,测试当前水印方法在人工智能生成内容上的韧性和完整性。他们应用了各种技术来移除或伪造水印,并评估了每种方法的简易程度和有效性。结果一致显示,水印相对容易被破坏。

此外,他们评估了这些漏洞在潜在的现实世界中的影响,特别是在涉及误导或恶意使用人工智能生成内容的情景中。这些实验和分析的综合发现使他们得出结论,迫切需要更加健壮的水印机制。

虽然像OpenAI这样的公司已经宣布他们已经开发出了能够以99%的准确率检测人工智能生成内容的方法,但总体挑战仍然存在。当前的识别方法,如元数据和隐形水印,都有其局限性。

李建议“最好是将一些密码学方法,比如数字签名,与现有的水印方案结合起来保护人工智能生成内容”,尽管确切的实施方式仍不清楚。

其他研究人员提出了一种更极端的方法。正如最近Decrypt报道的,麻省理工学院的一个团队提出将图像转化为对人工智能模型有害的“毒药”。如果一个“被毒害”的图像被用作训练数据集的输入,最终模型会产生糟糕的结果,因为它会捕捉到人眼看不见但在训练过程中具有很高影响力的细节。这就像是一种致命的水印,会毁掉它所训练的模型。

正如OpenAI首席执行官Sam Altman所强调的那样,人工智能的快速发展暗示着一个未来,人工智能的内在思维过程可能会反映人类的逻辑和直觉。随着这样的进步,对于水印这样健壮的安全措施的需求变得更加重要。

李认为“水印和内容管理是必不可少的,因为它们实际上不会影响正常用户”,但创作者和对手之间的冲突仍然存在。“这将永远是一场猫鼠游戏……这就是为什么我们需要不断更新我们的水印方案。”

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

欧易返20%,前100送AiCoin保温杯
链接:https://www.okx.com/zh-hans/join/aicoin20
廣告
分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接