中美 AI 的不对称竞争:靠 1% 的资源怎么追赶?

CN
1小时前

撰文:深思圈

你有没有想过,一家没有模型、产品、收入的美国AI公司,可以按照 500 亿美金的估值融资?这个价格可以打包把中国最领先的AI大模型创业公司全部拿下,包括DeepSeek、Kimi、智谱、Minimax等等等等。

昨天 Gemini 3 Pro模型发布后,硅谷也出现对美国AI模型狂热的疑问。能源创业公司PowerDynamics的创始人Jen Zhu发帖称,Google的模型最强,中国的开源模型更受欢迎,Anthropic有企业市场的优势,xAI有访问Twitter的优势,那OpenAI凭什么能拿到 1000 亿美金的收入?

中美AI模型巨大的估值鸿沟背后,隐藏着一个更深刻的问题:当中国 AI 实验室能够用远低于硅谷的成本做出同等水平的模型时,那些在美国投入数千亿美元建设数据中心的科技巨头,他们的巨额投资到底能不能带来相应的商业回报?

我一直在思考这个问题。过去几周,我仔细研究了 Kimi K2 Thinking 发布后在全球科技圈引发的反响,也深入分析了中美两国在 AI 投资策略上的巨大差异。我发现,这不仅仅是一个估值问题,更是两种截然不同的 AI 发展路径的对撞。一边是硅谷式的巨额资本堆叠,另一边是中国式的效率优先。而这场较量的结果,可能会重新定义整个 AI 行业的未来走向。

中国AI在硅谷的局面已经打开

让我先从最近发生的几件事说起。前两天,Perplexity 宣布接入 Kimi K2 Thinking,这是他们目前接入的唯一一个中国模型。和 Kimi 一起被接入的,是 OpenAI 刚刚发布的 GPT-5.1。上一个被 Perplexity 接入的中国模型还是今年 1 月震惊全球的 DeepSeek R1。这个消息的分量远比表面看起来要重。Perplexity 作为全球领先的 AI 搜索引擎,对模型的选择极为严格,他们需要确保接入的模型既有强大的性能,又能稳定可靠地服务用户。能被 Perplexity 选中,本身就是一种全球科技巨头的背书和认证。

而Perplexity 的 CEO 早在今年 7 月 Kimi K2 首次发布时就公开表达过兴趣,表示将基于 Kimi 进行训练。这说明他们对这个模型的关注不是一时兴起,而是经过长期观察和评估的结果。我认为这反映了一个重要趋势:全球顶尖的科技公司正在越来越认真地看待中国的 AI 模型,不再将它们视为只能在国内市场使用的替代品,而是把它们当作真正有竞争力的全球化产品。

几乎同一时间,马斯克发布 Grok 4.1 时做了一个对比评分,列出了多个顶尖 AI 模型的表现。在这个对比中,Kimi K2 是唯一被当作「参考文献」的中国模型,而且用的还不是最新的 Thinking 版本,只是基础版的 K2。即便如此,它的分数依然领先于许多知名模型。我觉得这个细节特别值得玩味。马斯克作为 AI 领域最具影响力的人物之一,他选择将 Kimi K2 纳入对比范围,本身就是一种认可。

Gemini 3 Pro发布后,马斯克急了,他转发 Grok 4.1推理版超过 Gemini 3 Pro的成绩时,大家发现中国模型 Kimi K2 Thinking 被夹在两者之间,成了最强背景板。

在全球最权威的大模型竞技场 LM Arena 上,Kimi K2 Thinking 再次夺得全球开源模型第一名,在开闭源综合排名中位列第七。这个榜单不是由某个公司或机构单方面评定的,而是基于全球用户的真实使用反馈和盲测结果。用户在不知道使用哪个模型的情况下,对不同模型的回答进行评分,最终汇总出排名。这种方式最能反映模型在实际应用中的真实表现。Kimi K2 Thinking 能在这样的榜单上名列前茅,证明在用户体验层面也获得了广泛认可。

Product Growth:Kimi K2 比 GPT-5.1 更重要

当 OpenAI 发布 GPT-5.1 的时候,整个科技圈都在讨论它的改进。但在硅谷风投圈广为人知的产品增长专家 Aakash Gupta 却发表了一个不同寻常的观点:当周最重要的模型更新不是 GPT-5.1,而是 Kimi K2 Thinking。这个判断来自他的深度实测。作为前独角兽公司 Apollo.io 的产品副总裁,同时也是 AI 产品经理必读 Newsletter《Product Growth》的作者,Aakash 的评价在硅谷科技圈有着相当的影响力。

他做了一个非常实际的测试。他给 GPT-5.1 和 Kimi K2 Thinking 提了同一个产品决策问题:基于用户参与数据,研究竞争对手的解决方案,比较他们的方法、采用率和定价策略,然后按影响力和工作量对功能选项进行评分,最后推荐发布优先级。这是一个典型的产品经理日常工作场景,既需要数据分析能力,也需要产品判断力。

测试结果让 Aakash 印象深刻。他发现 Kimi 使用了真实数据。Kimi 提取了实际的使用数字(310、260、420 个用户)来验证它的建议,而 GPT 只是在抽象的影响力和工作量量表上给功能打分就结束了。Kimi 像产品经理一样思考,而不是像电子表格一样工作。Kimi 给出的工作量是实际的月数(0.5 到 3.0 个月),这正是你规划冲刺时需要的。GPT 给出的 1 到 5 分在你预订工程时间时毫无意义。

最关键的是,Kimi 在重要的地方应用了判断力。这是关键时刻:Kimi 补充说"尽管得分相似,但 Battlecards 比 Feed 有更清晰的市场推广路径"。它理解纯粹的数学无法捕捉市场推广的复杂性。GPT 盲目遵循它的公式。GPT 的建议在实际产品决策中根本站不住脚。GPT 告诉 Aakash 应该首先发布"报告导出"功能,这是一个影响分数为 3 的实用功能。从数学上讲是正确的(3÷1=3.0),但对于一个竞争情报产品来说,这在战略上是糟糕的。

Aakash 总结说,Kimi 平衡了定量评分和产品感觉。GPT-5.1 把这当成了数学测验,得出了一个他在路线图审查的前 30 秒就会拒绝的建议。这就是当扩展推理真正起作用时的样子——模型不只是计算,它还验证假设并根据现实世界的约束检查其工作。我认为这个实测非常有说服力,因为它不是在实验室环境下的基准测试,而是在真实工作场景中的应用对比。这正是 AI 模型真正价值的体现:不是在测试题上拿高分,而是能帮助人们做出更好的决策。

从「对话问答」到「边想边做」

要理解 Kimi K2 Thinking为什么表现不错,我需要解释一下它采用的"交织推理"(Interleaved Reasoning)技术。传统的推理模型只有一步「思考→行动」的过程,它可以从互联网上获取信息,然后就不再与外界互动,而是不断地想。这种方式在简单任务上可能还行,但一旦任务变得复杂,需要多步骤协调时,就很容易出错。

Kimi K2 Thinking采用交织推理的方式工作。它的流程是:计划→识别目标并将其分解为步骤;行动→使用工具(网络搜索、代码执行、文档创建);验证→检查行动是否使目标更近了一步;反思→根据结果调整策略;精炼→迭代直到完成。如果链条中的某一步出错,传统推理会整个崩溃。而交织推理会在每一步捕捉这些失败并纠正它们。

这种方法对构建 AI Agent 来说至关重要。Kimi K2 Thinking可以在一个会话中运行 200 到 300 步工具调用。每一步都不会重置。它会基于刚刚发生的事情进行验证、反思和精炼。传统推理在规模化时会崩溃,而交织推理能够处理这种规模。

中美 AI 投资的巨大鸿沟

现在让我们把视角拉远一点,看看更宏观的图景。彭博社最近发表了一篇题为《DeepSeek 时刻现在成为新常态了吗?》的报道,文章开头就提出了一个尖锐的问题:当一家鲜为人知的中国 AI 公司发布的开源推理模型挑战西方主导地位,而且开发成本只是硅谷的零头时,市场几乎没有反应。这和今年 1 月 DeepSeek R1 发布时的情况形成了鲜明对比。那时候,DeepSeek 的出现让英伟达单日市值蒸发了近 6000 亿美元。

彭博经济学家 Michael Deng 指出:"与 1 月份 DeepSeek 恐慌形成对比的是,投资者已经迅速内化了这样一个事实:中国实验室可以用更低的成本达到前沿能力。"我们是否已经到了用极低预算匹配 AI 领域最佳水平不再令人震惊的地步?这个问题让我深思。如果说今年初 DeepSeek 的出现还是一次"黑天鹅"事件,那么现在 Kimi K2 的表现则表明,这种"黑天鹅"正在变成常态。

成本差距是惊人的。CNBC 报道称,根据知情人士透露,Kimi K2 Thinking 的训练成本为 460 万美元。虽然 Moonshot 团队成员后来在 Reddit AMA 中表示这"不是官方数字",但他在回答下一代模型何时发布的问题时巧妙地点出了巨大的支出差异,说它会"在 Sam(Altman)的万亿美元数据中心建成之前"推出。这种对比充满了讽刺意味。一边是数百万美元的训练成本,另一边是万亿美元的数据中心计划。

Jefferies 分析师上周指出,2023 年至 2025 年间,中国超大规模云服务商的资本支出总和比美国同行低 82%。但根据各种分析,他们最好的两个模型之间的性能差距现在已经微乎其微。即使在芯片质量较差和竞争激烈的情况下,显著降低的支出也指向了中国正在形成一条更清晰的投资回报路径。

我认为这种差距背后反映的是两种不同的发展哲学。美国的方法是"暴力美学":堆叠最先进的硬件,建设最大的数据中心,投入最多的资金。这种方法在资源充裕的情况下确实能推动技术快速进步,但代价是巨额的资本投入和较长的回本周期。中国的方法则更注重效率:在芯片受限的情况下,通过算法创新和架构优化来弥补硬件上的不足。

这对全球 AI 行业意味着什么

我认为这种竞争格局的变化会带来几个重要影响。对于创业公司和开发者来说,他们现在有了更多选择。不再需要完全依赖 OpenAI 或 Anthropic 的 API,他们可以使用成本更低但性能很有竞争力的中国模型。这会降低构建 AI 应用的门槛,催生更多创新。对于大型科技公司来说,这是一个警钟。单纯的资本堆砌可能不再是保持竞争优势的可靠策略,他们需要在效率和创新上做得更好。

我相信未来的 AI 发展不会是一方完全取代另一方,而是这两种路径的相互借鉴和融合。硅谷可能会学习中国的效率导向,开始更注重性价比而不是单纯的性能指标。中国公司可能会在商业化和生态建设上学习硅谷的经验,将技术优势转化为更大的商业价值。这种竞争和交流最终会推动整个行业向前发展。

Kimi K2 的案例给我们的启示是:在 AI 时代,技术能力不再是单纯由资本投入决定的。聪明的算法、创新的架构、高效的工程实践,这些"软实力"可能比数据中心的规模更重要。那些能够在有限资源下做出创新突破的团队,可能会在这场 AI 竞赛中获得意想不到的优势。而那些过度依赖资本堆砌的公司,则需要开始思考如何提高投资效率,否则他们可能会发现,自己正在为一场注定无法获得足够回报的军备竞赛买单。

最终,市场会给出答案。当越来越多的企业开始选择性价比更高的中国模型,当投资者开始质疑巨额投资的回报,当用户发现不同模型之间的体验差异越来越小,这个行业的估值体系就会重新调整。我期待看到那一天的到来,因为那将标志着 AI 行业从资本驱动走向价值驱动,从炒作泡沫走向理性发展的转折点。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接