病毒式的《怪奇物语》AI视频引发对深度伪造的新担忧

CN
Decrypt
關注
3 小時前

一则病毒式的帖子,展示了一段据称是用Kling AI的2.6运动控制制作的视频,本周在社交媒体上引发了轰动。巴西内容创作者Eder Xavier在视频中完美地将自己的面孔和身体与《怪奇物语》演员米莉·鲍比·布朗、大卫·哈伯和芬恩·沃尔夫哈德的面孔和身体进行了交换。

这些视频在社交平台上广泛传播,在X上观看次数超过1400万次,随后还发布了其他版本。这些片段也引起了技术专家的关注,包括a16z的合伙人贾斯廷·摩尔,她分享了Xavier的Instagram账户上的视频。

“我们没有准备好AI将如何迅速改变制作流程,”摩尔写道。“一些最新的视频模型对好莱坞有直接的影响。以微不足道的成本进行无尽的角色交换。”

随着图像和视频生成工具的不断改进,像Kling、谷歌的Veo 3.1Nano BananaFaceFusion以及OpenAI的Sora 2等新模型正在扩大高质量合成媒体的访问,研究人员警告说,病毒视频中展示的技术可能会迅速传播,超出孤立的演示。

一个滑坡

尽管观众对身体交换视频的质量感到惊讶,但专家警告说,这无疑会成为冒充诈骗的工具。

“闸门已经打开。窃取个人数字肖像——他们的声音、他们的面孔——从未如此简单,现在只需一张图片就能让其栩栩如生。没有人是安全的,”网络安全公司GetReal的首席调查官埃曼纽尔·萨利巴告诉Decrypt。

“我们将开始看到各个规模的系统性滥用,从一对一的社会工程到协调的虚假信息活动,再到对关键企业和机构的直接攻击,”他说。

根据萨利巴的说法,病毒视频中展示的《怪奇物语》演员表明,目前对滥用行为的防护措施是多么薄弱。

“只需几美元,任何人现在都可以使用一张图片生成政治家、名人、首席执行官或私人个体的全身视频,”她说。“没有对个人数字肖像的默认保护。没有身份保障。”

对于宾汉姆顿大学的电气与计算机工程教授余晨来说,全身角色交换超越了早期深度伪造工具中仅面部操控的应用,带来了新的挑战。

“全身角色交换代表了合成媒体能力的显著升级,”余晨告诉Decrypt。“这些系统必须同时处理姿势估计、骨骼追踪、服装和纹理转移,以及整个身体的自然运动合成。”

除了《怪奇物语》,创作者们还发布了《华尔街之狼》中莱昂纳多·迪卡普里奥的身体交换视频。

“早期的深度伪造技术主要在一个受限的操控空间内运作,专注于面部区域的替换,而将画面的其他部分基本保持不变,”余晨说。“检测方法可以利用合成面孔与原始身体之间的边界不一致性,以及当头部运动与身体运动不自然对齐时产生的时间伪影。”

余晨继续说道:“虽然金融欺诈和冒充诈骗仍然是令人担忧的问题,但还有其他几种滥用途径值得关注。”他说:“非自愿的亲密影像代表了最直接的伤害途径,因为这些工具降低了创建包含真实个体的合成露骨内容的技术门槛。”

萨利巴和余晨强调的其他威胁包括政治虚假信息和企业间谍活动,诈骗者冒充员工或首席执行官,发布伪造的“泄露”片段,绕过控制,并通过攻击获取凭证,在这些攻击中,“视频中可信的人降低了怀疑,足够长的时间以获得进入关键企业的权限,”萨利巴说。

目前尚不清楚制片厂或视频中表现的演员将如何回应,但余晨表示,由于这些片段依赖于公开可用的AI模型,开发者在实施保护措施方面发挥着至关重要的作用。

他还表示,责任应在平台、政策制定者和最终用户之间共享,因为将责任单独归于开发者可能会证明不可行,并抑制有益的使用。

随着这些工具的传播,余晨表示,研究人员应优先考虑识别合成内容内在统计特征的检测模型,而不是依赖于容易被剥离的元数据。

“平台应投资于自动检测管道和人工审核能力,同时为涉及公众人物或潜在欺诈的高风险内容制定明确的升级程序,”他说,并补充道,政策制定者应专注于建立明确的责任框架和强制披露要求。

“这些能力的快速民主化意味着,今天制定的响应框架将在几个月内而不是几年内进行大规模测试,”余晨说。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接