都在关注 AI 的我们应该关注下 Brevis Vera 这个升级:最近龙虾火出圈

CN
BITWU.ETH
关注
3小时前

都在关注 AI 的我们应该关注下 Brevis Vera 这个升级:

最近龙虾火出圈,智能体让大家看到了未来的同时,也感知到了 AI 可能真的会在未来我们的生活中无孔不入,帮我们完成工作流,甚至娱乐和生活,也到处都是AI的影子。

所以这也会引发一些问题,最直接的就是:现在我们看到一张图片一段视频,我们可能会无法识别真是真的还是 AI 生成的,真假难辨呀!

所以衍生出了一个词语叫:deepfake

deepfake 啥意思?

我来给大家普及下,他的意思就是深度伪造,简称深伪,是英文“deep learning”(深度学习)和“fake”(伪造)的混成词,专指基于人工智能的人体图像合成技术的应用。

deepfake 已然成为常态,那么久而久之,我们能看到的就是互联网就会进入一种很别扭的状态:大家开始对所有内容都先打个问号,很多事情都会被怀疑的话,这样下去世界会不正常的。

我觉得这才是 AI 时代一个很大的问题:假内容变多,当然可怕,但更可怕的你知道是什么吗?是他娘的连真内容也开始失去信任。

这也是我觉得 Brevis @brevis_zk 这次上线的 Brevis Vera 值得多看一眼的原因。因为他完成的事情,就是把我们无法判断的真实性这件事,到底是 AI 生成还是真实存在这件事,从一种主观判断,变成一种可以验证的东西。

简单来讲,就是让真实内容从源头开始就能证明自己是真的。怎么办到的:

Brevis Vera 先用 C2PA 给拍摄瞬间的原始内容打上“来源签名”,证明它确实来自真实设备。

问题是内容一旦被裁剪、调色、打码、压缩,原来的签名就会失效,信任链也就断了。

Vera 的做法,是把这些后续编辑过程放进 ZK 证明 里,证明最终发布版本确实来自那份已签名的原始内容。

同时它还能证明,中间只做了被允许的编辑,没有偷偷塞进别的修改,这样别人验证时,不需要看到原始素材和具体编辑细节,也能确认这份内容“源头真实、过程可证”。

往后看,这类产品可能是 AI 时代内容信任基础设施的雏形。


免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接