
Meta|2025年07月30日 07:54
AI 现在确实变得越来越能说会道,但说到底AI自身对于事件真假是无法进行判定的。
昨天看到 A16Z发布的推文中Balaji 说得很对“AI 让一切变得虚假,而 crypto 又让它们重新变得真实”
这段话的背后,其实有更大的需求正在酝酿:验证机制的基础设施化。毕竟我们不能每次都依靠人肉去查真假,这从时间和人力成本来讲根本不现实。所以必须得有一整套程序化、模块化、可复用的真伪判断引擎。
这正是@Mira_Network 正在做的事,不做LLM大模型,转而去做大模型的真相插件。模型输出什么,他们就拆成一条条的 claim,用多个验证器模型交叉对照,达成共识才输出。
最近 Mira 和 AKEDO 合作就是个很好的例子。
AKEDO 是多智能体游戏引擎。它可以在两分钟内生成一个可玩的游戏。超级快,超级灵活。但最大的问题是让 AI 去生成剧情、人物行为、道具属性的时候,它很容易为了“有趣”去乱造,甚至直接逻辑不通。
这时侯 @Mira_Network 的 Verify API 像游戏里的裁判,AI 生成内容之后,Mira 的模型集群来判断它说的是不是靠谱的。比如不能让武器的伤害数值飘忽不定。这些细节,Mira 会逐个去核对。
而且验证过程是链上存证的。这意味着创作者可以放心让 AI 去生成,但用户也可以放心玩,因为每一条逻辑都是可以回溯和验证的。
讲到底AI 让“创造”变得便宜了,但“可信的创造”门槛却变得贵了。而 Mira 正在把“可信”做成一个模块,一个协议,一个可以反复调用的公共工具。让AI生成的内容,有证可查。(Meta)
分享至:
脉络
热门快讯
APP下载
X
Telegram
复制链接