AI 在发红包,但这不是我想要的 AgentFi-从红包、协作到结算,为什么我对这场 AI 红包大战有点难过

CN
4小时前

撰文:Yokiiiya

我之前发过一个视频,标题是《元宝如果可以发红包,那才是真正的 AgentFi》。最近,AI 红包大战真的来了。但说实话,我并没有想象中的兴奋,反而有一点难过。这和我设想中可以说几乎毫无关系。

当时我设想的场景,其实非常具体:不是平台为了拉新而发红包,而是一个作为 Agent 的「元宝」,能够理解我的目标、我的约束,并在我授权的前提下,为我制定的人、在合适的时间、发出指定金额的红包

那种「发钱」,不是营销动作,而是一次被理解、被授权、被精确执行的系统行为

所以,当最近 AI 红包大战真的来了的时候,我的第一反应并不是兴奋,而是有一点难过。不是因为红包不够多,也不是因为发得不够快,而是因为这件事,和我当初设想的那种「Agent 在发钱」,几乎毫无关系。现实中的 AI 红包,更像是一次熟悉的技术换壳:模型变了,入口变了,但问题框架没变。钱依然是平台在发,逻辑依然是补贴、拉新、裂变和占位。

而我原本期待的,是另一种完全不同的事情:钱是被 Agent 调度的,动作是为某个具体目标服务的,发钱本身,是系统理解之后的结果,而不是增长手段。

正是这种落差,让我意识到:我们讨论的,可能并不是「AI 会不会发红包」,而是——我们到底在用什么方式理解 AI。

一、AI 红包大战的「熟悉感」

这种熟悉感,其实不只是来自红包本身,而是来自它背后那套我们已经非常熟悉的叙事方式。红包、补贴、免费额度、邀请返现、裂变拉新。不同公司的 AI 产品,用着几乎同样的方式争夺用户注意力。各个微信群里,也很快就被「元宝派红包」的链接刷满了。这一幕并不陌生。

十年前是打车软件,后来是外卖、电商、社区团购;再后来是内容平台、教育、SaaS。几乎每一次新技术真正走向规模化之前,都会经历这样一轮「补贴期」。

这套方法论曾经非常有效,也确实推动过多个行业完成早期扩张。AI 只是最新被套用这套模板的对象。从表面看,一切都很合理:模型能力差距还没有被彻底拉开,产品体验也高度接近,用价格和补贴争夺用户,几乎是最直接、也最稳妥的选择。但让我真正停下来思考的,其实是另一件更底层的事情:AI 被放进了哪一套问题框架里?我们到底是在把它当成什么来理解?

如果你仔细观察,会发现现在关于 AI 的讨论,正在慢慢分化。有一类叙事,把 AI 当作一种更强大的工具或产品。核心问题很清晰:体验好不好、能力强不强、用户多不多,以及,能不能更快进入主流使用场景。在这套叙事里,红包是一种非常自然、也非常顺手的工具。

但与此同时,另一类叙事正在悄悄出现。它们关注的,已经不只是「有多少人在用 AI」,而是:AI 在整个系统里的位置,是不是正在发生变化。在这种理解里,AI 不再只是被人使用的对象,而是开始被假设为可以被调用、协作、分工的参与者。当问题被这样重新定义之后,讨论的重心也就跟着变了:从增长,转向结构;从流量,转向规则;从补贴,转向结算与秩序。

并不是地理意义上的差异,也不完全是技术路线的分歧。更准确地说,这是不同创业者,对「AI 到底在解决什么问题」的理解差异

有人觉得,AI 需要先被尽可能多的人用起来;也有人觉得,AI 更重要的是先在系统层面被安放到一个合适的位置。这两种选择,本身并没有绝对的对错。它们回应的,是不同阶段、不同目标下的现实约束。但当我看到 AI 再次被拉回到熟悉的红包叙事中时,那种难过,正是来自于这种对照。不是因为这条路是错的,而是因为它提醒我:我们可能正在用一套已经非常成熟的答案,去回应一个正在变化的问题。我在意的从来不是「谁在发红包」,而是钱是不是被 Agent 按目标调度的。

二、红包解决的是增长问题,但不一定是 AI 的核心问题

先说清楚一件事:AI 红包大战本身,并不奇怪。红包、补贴、免费额度,一直都是非常成熟的增长工具。它们解决的,是几个非常明确的问题:让更多人愿意第一次使用,让用户形成短期使用习惯,在多个能力接近的产品中,尽快占据默认选择权。

如果你把 AI 当作一个面向人的工具型产品,这套逻辑几乎是必然的。但问题不在于红包「有没有用」,而在于:它默认回答的是哪一类问题。红包擅长解决的是——人如何开始使用 AI。但它几乎无法回答的是——AI 之后会如何被真正使用。

当 AI 越来越多地被嵌入到系统里、流程里,被调用、被组合、被协作,使用者不再只是人,而可能是另一个 Agent 或一套自动化逻辑时,红包能发挥作用的空间,其实是在变小的。这并不意味着红包是错误的选择,

当我们持续用这套增长叙事去理解 AI 时,一个微妙的错位就会出现。我们会越来越擅长讨论:哪家模型更好用、哪家更便宜、哪家补贴更狠;却越来越少去追问:当 AI 被真正嵌入系统、流程和协作关系中时,它们之间的分工、责任和价值该如何被定义。这些问题,在早期看起来并不紧急。但一旦 AI 的使用开始脱离「个人体验」,它们就不会随着用户规模扩大而自动消失。相反,它们往往是在规模出现之后,才真正暴露出来。红包是平台行为,结算是系统行为。

三、转折点:当 AI 的主要使用者不再只是人

如果说前两部分讨论的是叙事上的选择,那么真正的转折点,其实来自一个已经在发生的变化:AI 的主要使用者,正在不再只是人。越来越多的 AI,并不是被某一个具体的用户「打开」和「使用」,而是被嵌入到系统和流程中,在后台被自动调用。它们出现在审批链路里、交易系统里、风控和客服流程中,也出现在内容生产、投研分析和自动化运维的每一个节点上。在这些场景里,AI 的「用户」往往并不是人,而是另一个 Agent,或者是一整套自动化逻辑。

当使用者发生变化时,一些原本被默认成立的假设,也开始变得不再稳固。我们习惯用体验、情绪和使用习惯来解释为什么一个人会持续使用某个产品,但这些因素对一个 Agent 几乎没有意义。一个 Agent 不会因为红包而产生好感,也不会因为补贴而形成忠诚,它只关心几件非常冷静的事情:能不能被稳定调用,输出是否可预期,成本和收益是否清晰。当 AI 的调用越来越多地发生在机器之间时,那套围绕「人」的增长叙事,就开始逐渐失去抓手。

这种变化在多 Agent 协作的场景中会被进一步放大。当多个 AI 同时参与同一条业务链路时,问题不再只是「好不好用」,而是变成了一组更难回避的问题:谁完成了哪一部分工作,谁对最终结果负责,各自创造了多少价值,如果出现偏差或错误,又该由谁来承担后果。这些问题在「一个人用一个 AI」的阶段并不突出,但一旦进入多 Agent 协作,它们就会迅速变成系统能否长期运转的关键。

更重要的是,这类问题并不会随着模型能力的提升而自然消失。恰恰相反,模型越强、协作越复杂,这些问题就越难被模糊处理。也正是在这个意义上,AI 正在从一个单纯的「工具问题」,慢慢转变为一个「秩序问题」。不再只是它能不能帮我把事情做好,而是当它和其他 AI 一起工作时,这个系统还能不能被理解、被管理、被结算。

当我们把视角放到这里,前面提到的叙事分化,也就变得更加清晰了。有的创业者仍然在解决「如何让更多人开始用 AI」的问题,而另一些创业者已经开始尝试回答另一个更慢、更底层的问题:当 AI 彼此协作、彼此调用时,整个系统应该如何运转。这并不是一个更热闹的问题,但它很可能决定了,当 AI 真正走入系统深处之后,我们是否仍然能够对它保持掌控。

四、新叙事出现:当 AI 协作开始需要被「结算」和「确认」

当 AI 的使用从「人与模型的交互」,逐渐转向「系统中多个 Agent 的协作」时,一类此前并不显眼的问题开始浮现出来:系统是否真的知道这些协作是如何发生的。

在多 Agent 同时参与的系统里,有的 Agent 负责拆解任务,有的负责执行,有的负责校验结果。如果系统无法确认每一步是谁完成的、在什么条件下触发、对最终结果产生了什么影响,那么协作本身就会变成黑箱。

在以「人」为中心的产品阶段,这种模糊性并不致命。一个人使用一个 AI,体验好不好、结果准不准,大多可以通过主观反馈来判断。

但当 AI 开始彼此协作、并嵌入到系统和流程中时,这种不透明就会迅速累积成结构性风险。也正是在这样的背景下,一批项目开始从不同切面切入,尝试为 AI 协作补上长期缺失的两件事:确认(谁做了什么),以及结算(价值如何分配)。它们的技术路线不同,切入点也不一致,但回答的其实是同一类问题:当 AI 不再只是工具,而是系统中的参与者时,这套系统是否具备最基本的可理解性与可持续性。

下面这几家公司,分别代表了四种不同的解法。

Autonolas、Bittensor、Fetch.ai 和 Kite AI放在一起看,会发现一件很清晰的事情:它们并不在同一条产品赛道上,也几乎不存在直接竞争关系,但它们都在各自的位置上,认真回答着同一个问题的不同侧面。

  • Autonolas关注的是:多个 Agent 是否真的能够围绕任务形成长期、可复用的协作关系。它优先解决的是协作结构能不能成立、能不能持续运行。

  • Bittensor关心的是:当多个模型或 Agent 同时参与产出时,系统是否有能力区分不同参与者的边际贡献,并据此完成价值分配。

  • Fetch.ai把重点放在决策层面:当 Agent 参与真实系统运作时,身份、权限和责任边界是否足够清晰,决策结果是否可以被追溯和归因。

  • Kite AI则试图把问题再往前推一步:如果协作过程本身不可被确认,那么无论是激励还是结算,其实都缺乏坚实基础。

这几条路径切入点不同,但共同指向一个正在发生的变化:AI 正在从「被人使用的工具」,转变为「参与系统运作的主体」。而一旦主体发生变化,系统所依赖的基础能力也会随之改变。红包、补贴和增长手段依然重要,它们解决的是「人如何开始使用 AI」的问题;但当 AI 开始彼此协作、开始嵌入流程与系统时,真正决定系统上限的,已经变成了更具体、也更底层的事情:

  • 协作是否真的发生过(Autonolas 关心的)

  • 贡献是否能够被区分和定价(Bittensor 关心的)

  • 决策是否有清晰的责任边界(Fetch.ai 关心的)

  • 协作过程是否具备可确认、可结算的基础(Kite AI 试图回答的)

这并不是某一家公司的选择,而是一组问题在同一时间被不同团队分别击中的结果。这,才是新叙事出现的真正原因。

五、结语:不是红包错了,而是问题变了

回到最开始那场 AI 红包大战。它并不荒谬,也不落后。相反,它非常成熟,甚至可以说,是过去十几年里被反复验证过的最优解之一。

当一项新技术需要尽快进入大众视野、形成使用习惯、争夺默认选择权时,红包、补贴、免费额度,确实是效率最高的工具。它们解决的是一个清晰的问题:如何让「人」开始使用 AI。但让我感到犹豫、甚至有点难过的,并不是红包本身,而是我们是否正在用一套已经非常熟练的答案,去回应一个正在发生变化的问题。

因为在另一条不那么热闹的路径上,AI 已经开始以一种不同的方式被理解。它不再只是被人调用的工具,而是在系统中被假设为可以协作、分工、决策、并长期参与运作的主体。当 AI 开始彼此协作时,系统真正需要回答的,就不再是「用户来没来」,而是:协作是否发生过,贡献来自哪里,责任是否清晰,价值是否真的被结算过。

这些问题无法通过红包解决,也很难通过补贴绕开。它们更慢、更底层,也更不讨好市场,但却直接决定了多 Agent 系统是否具备长期运行的可能性。从这个角度看,新叙事并不是对旧叙事的否定。

红包依然是旧世界里的最优解,但当 AI 开始进入系统深处、开始彼此协作时,真正决定未来走向的,已经不再是补贴力度,而是规则是否成立,结构是否清晰,结算是否可信。也许正因为如此,当我看到 AI 再次被拉回到熟悉的红包叙事中时,才会感到一丝失落。

不是因为这条路是错的,而是因为它提醒我:我们已经站在一个需要换问题,而不仅仅是换答案的节点上。当钱仍然只是平台在发,AI 还停留在工具阶段;当钱开始被 Agent 调度,AI 才真正进入系统时代。

——而这,可能才是 AI 时代真正开始的地方。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接