大匡
大匡|2026年01月08日 14:20
持续在看 @inference_labs 越看越觉得它切中的不是AI 更强,而是AI 是否可信这个更底层的问题。现在大多数 AI 推理本质还是黑盒,你只能接受结果,却没办法确认它是不是按规则算出来的,这在金融、医疗、企业级系统里是无法长期成立的。 Inference Labs 的思路很清晰:不要求模型完全公开,但必须让推理结果可验证。他们提出的 Proof of Inference 机制,把 AI 推理放在链下执行,同时生成零知识证明,让任何依赖方都能在不接触模型细节的情况下验证结果是否真实。这一步,实际上把“信任”从主观承诺,变成了数学事实。 更关键的是,这套体系已经跑出了规模。链上生成的 zkML 证明超过 3 亿个,并不是实验室数据,而是真实负载下的结果。通过与 Cysic 合作引入 ASIC 硬件,推理证明的成本和延迟被压到可实用区间,这意味着高频、实时验证终于不是空谈。 在生态层面,@inference_labs 与 EigenLayer 的 AVS 方向结合,也拿到了 Delphi 的资金支持,定位非常明确,就是为未来的 AI Agent 提供可审计、可追责的基础设施。如果 AI 真要参与资产管理和自动决策,这种“先给证据再给结果”的结构几乎是刚需。 Inference Labs 不是讲概念的项目,而是在为自治计算时代补信任这一块短板,值得长期关注。 #Inference @KaitoAI #KaitoYap(大匡)
+2
曾提及
分享至:

脈絡

熱門快訊

APP下載

X

Telegram

Facebook

Reddit

複製鏈接

熱門閱讀