K线
数据链上
VIP
市值
API
排行
CoinOSNew
CoinClaw🦞
语言
  • 简体中文
  • 繁体中文
  • English
全球行情数据应用领跑者,致力于更高效地提供有价值的信息。

功能

  • 实时行情
  • 特色功能
  • AI网格

服务

  • 资讯内容
  • 开放数据(API)
  • 机构服务

软件下载

  • PC版
  • Android版
  • iOS版

联系我们

  • 聊天室
  • 商务邮箱
  • 官方邮箱
  • 官方验证通道

加入社区

  • Telegram
  • Twitter
  • Discord

© Copyright 2013-2026. All rights reserved.

简体繁體English
|旧版

GitHub Copilot 改收费,揭开了 AI 行业最大的谎言

CN
深潮TechFlow
关注
2小时前
AI 总结,5秒速览全文
OpenAI、Anthropic、微软同时在亏本养你,但这场游戏快撑不住了。

作者:Ed Zitron

编译:深潮 TechFlow

深潮导读:微软终于撑不住了,GitHub Copilot 从月费制改为按 token 计费。这不是产品升级,而是整个 AI 行业补贴骗局的集体破产——OpenAI、Anthropic 们用月费掩盖真实成本,让用户每花 1 美元就烧掉 8-13 美元的算力,训练出一代根本不可能持续的使用习惯。当价格回归现实,你会发现那些"革命性"的 AI 工具,可能只是昂贵的玩具。

我刚写了一篇关于 OpenAI 如何干掉 Oracle 的文章,今天这篇用了其中一些材料。这是我写过最好的文章之一,我非常自豪。

订阅付费版既超值,也让我能每周写出这些大型、深度研究的免费文章。

昨天早上,GitHub Copilot 用户得到了我一周前报道过的消息确认——所有 GitHub Copilot 计划将在 2026 年 6 月 1 日改为按使用量计费。

微软不再给用户一定数量的"请求次数",而是根据用户实际使用的模型成本收费,微软称这是"……朝着可持续、可靠的 Copilot 业务和所有用户体验迈出的重要一步。"用户现在能用多少,取决于他们订阅费能买多少 token(比如每月 19 美元的计划能用 19 美元的 token)。

翻译:我们不能继续补贴 GitHub Copilot 用户了,否则 Amy Hood(微软 CFO)会开始用棒球棒打人。

这份公告本身就是个有趣的预览,展示了这些价格变动会如何被包装:

Copilot 已经不是一年前的产品了。它已经从编辑器内的助手进化为一个能运行长时间、多步骤编码会话的智能体平台,使用最新模型,在整个代码库中迭代。智能体使用正在成为默认模式,这带来了显著更高的计算和推理需求。现在,一个快速的聊天问题和一个数小时的自主编码会话,用户付的钱可能是一样的。GitHub 一直在吸收这种使用背后不断攀升的推理成本,但目前基于请求次数的高级模式已经不可持续了。按使用量计费解决了这个问题。它更好地将定价与实际使用对齐,帮助我们维持长期服务可靠性,并减少限制重度用户的需要。

你看,不是微软在补贴近两百万人的算力,而是 AI 变得如此强大、复杂,基本上成了一个不同的产品!

虽然 Copilot 可能"不是一年前的产品了",但底层经济错配几乎没变:微软三年来一直允许用户每月烧掉超过订阅费的 token。根据《华尔街日报》2023 年 10 月的报道:

个人用户每月支付 10 美元使用这个 AI 助手。根据一位知情人士透露的数据,今年前几个月,该公司平均每个用户每月亏损超过 20 美元,有些用户每月让公司花掉 80 美元。

自然,GitHub Copilot 用户现在造反了,说产品"死了"、"彻底毁了"。

我两年前在《次贷 AI 危机》中就预言过这一天:

那一天终于到了,因为你用的每一个 AI 服务都在补贴算力,每一个服务都因此亏钱:

当你为 AI 创业公司的服务付费时——当然包括 OpenAI 和 Anthropic——你支付的是月费,比如 Anthropic 的 Claude 每月 20、100 或 200 美元,Perplexity 每月 20 或 200 美元,或者 OpenAI 每月 8、20 或 200 美元的订阅。在一些企业场景中,你会得到某些工作单位的"额度",比如 Lovable 在每月 25 美元的订阅中给用户"100 个月度额度",以及 25 美元的云托管(到 2026 年第一季度末),额度可以跨月滚存。当你使用这些服务时,相关公司要么按每百万 token 的费率向 AI 实验室付费,要么(对于 Anthropic 和 OpenAI)向云服务商支付租用 GPU 运行模型的费用。一个 token 基本上是 3/4 个单词。作为用户,你感受不到 token 消耗,只是输入和输出的过程。AI 实验室用"tokens"、"消息"或带百分比计的 5 小时速率限制来掩盖服务成本,你作为用户,并不真正知道这一切要花多少钱。在后端,AI 创业公司在疯狂烧钱,直到最近 Anthropic 还允许你每花 1 美元订阅费就烧掉高达 8 美元的算力。OpenAI 也允许你这样做,虽然很难衡量具体多少。

AI 创业公司和云服务巨头以为,他们能用补贴、亏损的产品吸引足够多的人,让用户上瘾到当企业提价时也拒绝更换。我想他们还以为,token 成本会随时间下降,但实际发生的是——虽然一些模型的价格可能降了,但更新的"推理"模型烧掉更多 token,这意味着推理成本不知怎么随时间变得更高了。

两个假设都错了,因为月订阅模式对任何连接大语言模型的服务来说都说不通。

生成式 AI 的核心经济模式已经崩溃

这样想吧。当 Uber(不,这和 Uber 完全不一样)开始提高打车价格时,底层经济逻辑没变,呈现给乘客和司机的也没变——用户为一次行程付费,司机因一次行程收费。司机仍然要付油费、车险、当地政府可能要求的许可证,以及车辆可能产生的融资成本,这些成本不由 Uber 补贴。Uber 的巨额亏损来自补贴、无休止的营销费用,以及注定失败的无人驾驶汽车等研发努力。

生成式 AI 订阅和 Uber 完全不同

为了说明 AI 定价错配的规模,我要请你想象一个 Uber 有着非常不同商业模式的平行历史。

生成式 AI 订阅就像如果 Uber 每月收 20 美元让你打 100 次 100 英里以内的车,汽油 150 美元一加仑,而且 Uber 付油费,因为有人坚持认为石油总有一天会便宜到不值得计量。

Uber 最终会决定开始收取用户月费来获得打车资格,然后按用户消耗的汽油收费。突然间用户从每月 20 美元打 100 次车,变成支付 20 美元获得打车资格加上 10 英里行程 26 美元的油费。用户自然会有点不爽。

虽然这听起来有点夸张,但实际上是生成式 AI 行业正在发生的事情的相当准确的隐喻,尤其是在 GitHub Copilot。

GitHub Copilot 之前的定价允许每月 300 次高级请求,以及使用 GPT-5 mini 等模型的"无限聊天请求"。每个请求(引用微软的话)是"……你要求 Copilot 为你做某事的任何交互",在基于请求的系统后期,更昂贵的模型会占用更多请求,比如 Claude Opus 4.6 占用三次高级请求。当你用完高级请求时,Copilot 会让你在本月剩余时间里随意使用那些更便宜的模型。

情况也并非一直如此。直到 2025 年 5 月,微软还给用户无限使用模型,即便如此用户也对产品有任何限制感到愤怒。

微软——像每家 AI 公司一样——通过销售不可持续的服务欺骗了客户,因为销售基于月订阅的 LLM 驱动服务从来、从来都说不通。

如果你想知道基于 token 计费的服务可能要花多少钱,GitHub Copilot 子版块的一位用户发现,过去一次高级请求的 token 消耗大约是 11 美元,因为一次"请求"涉及在上下文窗口中使用 60,000 个 token、几个工具,以及一堆内部"轮次"(模型在做的事情)来产生输出。

还有容易产生幻觉的大语言模型的底层不可靠性。虽然一次高级请求陷入死循环并吐出半残代码可能令人沮丧,但当你自己付费时,同样的故障就没那么容易原谅了。

用户也被训练成以一种完全不同于基于 token 计费的方式使用产品,我想很多人甚至都没真正意识到他们烧了多少"tokens",或者某项特定任务需要多少,这会根据你使用的模型而变化。

这和 Uber 完全不同,任何告诉你相反的人都是在试图为恶劣行为辩护。Uber 可能提高了价格,但它不必戏剧性地改变平台的底层经济逻辑,用户也不必完全改变他们使用产品的方式,因为 Uber 突然开始按每加仑收费。

月度 AI 订阅都是 AI 补贴骗局的一部分,是刻意将生成式 AI 与其实际成本分离的企图

从来没有——也永远不会有——一种经济上可行的方式来提供由 LLM 驱动的服务,除非按每个用户实际的 token 消耗收费,而在欺骗这些用户的过程中,这些公司创造了具有虚幻好处和可疑投资回报的产品。

这多年来一直显而易见。

从经济学角度看,月订阅只有在成本相对静态时才合理。健身房可以销售会员资格,因为大致知道设备磨损多少、课程运营成本、以及电、员工和水在特定时期内可能花多少钱。

Google Workspace 的客户——至少在 AI 之前——的成本是访问或存储文档的费用,以及 Google Docs 和其他服务的持续成本。数字存储成本相对较低(而且与 LLM 不同,Google Workspace 对计算需求不高),意味着一个特别重度的 Google Drive 用户不会侵蚀他们月订阅的利润。

然而这些服务故意隐藏 token 数量或某项特定活动花了多少钱,这意味着用户并不真正知道速率限制意味着什么,这意味着速率限制的每次突然变化都让客户拼命想弄清楚他们能用服务做多少实际工作。

这是一种虐待性、操纵性和欺骗性的经商方式,它存在的唯一目的是让 Anthropic、OpenAI 和其他 AI 公司能够扩大用户基础,因为大多数 AI 用户完全通过能够每花 1 美元订阅费就烧掉 8 到 13.5 美元的 token 这个视角来感知其真实或想象的好处。

这种故意的欺骗行为只有一个目标:确保大多数人永远不会接触到生成式 AI 的真实成本。当《大西洋月刊》写一篇关于 Claude Code 是 Anthropic 的"ChatGPT 时刻"的激情檄文时,它基于的是每月 20 美元的订阅,而不是 Anthropic 提供它所花费的底层 token 消耗,这反过来让作者原谅模型可能犯的"小错误",或者当它"在更复杂的编程任务上卡住"时。

如果作者为她实际的 token 消耗付费,而且每次卡住都导致 15 美元的 token 费用,我不认为她会如此原谅这些故障。

但这都是骗局的一部分。

非常、非常重要的是,主流媒体中写 AI 的人实际上不理解这些服务要花多少钱,而且任何关于 ChatGPT 或 Claude Code 等服务的主流文章都是由几乎不知道每项单独任务可能让用户花多少钱的人写的。

记住:生成式 AI 服务大多是实验性产品,功能不像任何其他现代软件或硬件。人们不能就这样走到 ChatGPT 或 Claude 面前开始要求它工作。

我是说,你可以,但如果你提示不对、不理解它如何工作、或者在你喂给它的东西里犯错,或者如果它就是搞错了,它会吐出你不喜欢的东西,这反过来意味着你需要再次提示它。LLM 本质上是不可预测的。

你无法保证 LLM 会执行某个特定动作,或者它会呈现给你一个基于现实的结果。你无法确定某项特定任务——即使是你过去用 LLM 做过很多次的——可能要花多少钱,你也无法确定模型何时可能发疯删掉什么东西,或者干脆不做某事却声称它做了。

如果用户被迫支付实际费率,我想很多人会立刻放弃产品,因为如果你瞎折腾探索 LLM 能做什么,很容易就烧掉 5 美元的 token。

旁注:事实上,你可以在从未得到你想要的结果的情况下烧掉大量钱,因为 LLM 根本不是真正的人工智能!没有任何真正理解其局限性的人可以轻易烧掉 30、50 甚至 100 美元,试图说服 LLM 做它坚称自己能做的事。有个术语形容这个。谄媚。LLM 通常被设计为肯定用户,即使他们在说危险的疯话,这可以延伸到说"你想要这个技术上或经济上完全不可行的大事?"当然可以!这就是为什么行业如此努力地掩盖这些成本——这就是他妈的敲竹杠!

我认为大多数 AI 订阅转向基于 token 的计费是不可避免的,尤其是 Anthropic 和 OpenAI 现在都已经对企业客户这样做了。

普通公司能负担得起转向基于 Token 计费吗?Anthropic 估计用户每天在 Claude Code 上花 13-30 美元(每年 7000 多美元),大型组织每年花费数十万或数百万美元

正如我上周讨论的,Uber 的 CTO 在一个会议上说它在几个月内就花完了 2026 年的整个 AI 预算,高盛建议一些公司在 AI token 上花费高达员工薪酬的 10%,有可能在未来几个季度增加到 100%。

这是训练每一个 AI 用户尽可能多地使用这些服务同时掩盖其真实成本的直接结果。每一家要求每一个员工"尽可能多地使用 AI"的大公司都是在基本上忽略或完全脱离其实际 token 消耗的情况下这样做的,而随着公司被迫支付实际成本,我不确定你如何能在经济上证明对这项技术的任何投资是合理的。

当然,你会说工程师"更快地交付代码"之类的废话,我懂。但到底快了多少?你因此赚了或省了多少钱?如果你把 10%的人力成本花在 AI token 上,这笔额外开支有没有从其他地方补回来?我不确定有。我不确定任何在 token 上投入巨资的企业看到了投资回报,这也是为什么每项关于 AI 投资回报率的研究都找不到多少存在证据。

大多数情况下,你读到的那些对生成式 AI 各种可能性津津乐道的人,都是在不用承担真实成本的情况下体验它的。每个在 Twitter 上没完没了写他们整个工程团队疯狂使用 Claude Code 的疯子,用的都是每人每月 125 美元的 Teams 订阅,使用限制和 Anthropic 面向消费者的 100 美元月费订阅差不多。每个在 LinkedIn 上坚称自己用某个 Perplexity 产品"几分钟完成数小时工作"的怪物,最多也就是每月花 200 美元买 Perplexity 的 Max 订阅。

实际上,那个 10 人、每月 1250 美元的 Teams 订阅,很可能每月要烧掉 5000 到 10000 美元的 API 调用费用,甚至更多。Anthropic 增长主管 Amol Avasare 上周说,他们的 Max 订阅是为重度聊天使用设计的,而不是人们用 Claude Code 和 Cowork 做的那些事,并明确表示 Anthropic 现在在考虑"不同的选项来继续提供优质体验",换句话说就是"我们会在某个时候调整价格"。

我不确定人们是否意识到这些 token 有多贵,特别是涉及大型代码库并频繁调用编码和基础设施工具的编程项目。一个每月花 200 美元的人能负担得起 350、400 或 500 美元吗?他们能承受某个月花费超过这个数字吗?如果预算超支了怎么办?或者他们真的负担不起完成工作所需的费用怎么办?

给你一个更实际的例子,直到 4 月初,Anthropic 自己的 Claude Code 开发者文档(存档)还写着"[使用 Claude Code 的用户]平均成本是每个开发者每天 6 美元,90%的用户每日成本保持在 12 美元以下。"截至本周,文档现在这样写:

Claude Code 按 API token 消费收费。订阅计划定价(Pro、Max、Team、Enterprise)请见 claude.com/pricing。每个开发者的成本因模型选择、代码库大小和使用模式(如运行多个实例或自动化)而差异很大。在企业部署中,平均成本约为每个开发者每个活跃日 13 美元,每月 150-250 美元,90%用户的成本保持在每个活跃日 30 美元以下。要估算你团队的开支,从小型试点组开始,使用下面的跟踪工具建立基准,然后再推广。

如果我们假设一个月平均有 21 个工作日,Claude Code 用户的平均成本约为每月 273 美元,或每年 3276 美元。按每个工作日 30 美元算,就是每月 630 美元,或每年 7560 美元。

这些数字惊人,更惊人的是,如果你使用 Anthropic 任何较新的模型,你不可能只花每天 30 美元。Claude Opus 4.7 的费用是每百万输入 token 5 美元,每百万输出 token 25 美元。一百万 token 约等于 5 万行代码,假设你使用所谓的最先进模型,你肯定至少会跑完一百万 token,如果你不太清楚该用哪个模型做特定任务,这个数字会急剧上升。

让我们再玩玩这个 30 美元的数字。

对于 10 人开发团队,一年就是 75600 美元,而且我们只算工作日。

如果你有三个月提高到平均每个工作日 50 美元,就涨到 88200 美元

如果你加一个月超过 100 美元,一年就要花 102900 美元。

如果你每天花 300 美元,10 个人一年就要花 756000 美元。

虽然这在资金充足的创业公司或 Meta 这样的香蕉共和国的备用金思维里可能可行,但任何真正在意成本的企业都很难证明在一项"提高生产力"的服务上额外花费五位数或六位数是合理的,而这种提高似乎没人能衡量。

现在,我认为大多数公司分为三类:

Spotify 或 Uber 这样大型组织里的企业部署,有痴迷 AI 的 CEO,允许预算不受控制。我也会说资金充足的大型创业公司也是这种情况。

我也会说资金充足的大型创业公司也是这种情况。

使用补贴的"Teams"订阅的小型创业公司。

付月费访问 Claude 或其他 AI 订阅的个人用户。

大型组织仍然可以说他们在为软件工程师烧掉数百万美元的 AI token,理由是"最优秀的工程师"不写任何代码这一可疑好处。

只需要一次糟糕的财报电话会议就能改变这种叙事。在某个时刻,投资者——即使是那些一直在吹大 AI 泡沫的脑残蠢货——也会开始质疑不断攀升的研发成本(AI token 消耗通常隐藏在这里),当公司的收入增长跟不上时。这很可能导致更多裁员来控制成本,就像 Meta 那样,然后在有人问"这些东西真的帮我们更快更好地完成工作了吗?"时最终收缩。

我还认为,在六个月内,那些在 AI token 上烧掉 10%或更多人力成本的创业公司,很难说服投资者这样做是必要的。

一旦所有人都切换到基于 token 的计费,我不确定我们还会看到那么多关于生成式 AI 的炒作。

AI 数据中心和算力的经济学不合理

人们谈论 AI 数据中心的方式完全脱离现实,我认为人们没有意识到整个时代变得多么荒谬。

AI 数据中心建设成本高、运营成本高,实际收入却很少

根据 TD Cowen 的 Jerome Darling,关键 IT(GPU 和相关硬件)成本约为 3000 万美元,每兆瓦数据中心容量成本 1400 万美元。数据中心似乎需要一到三年不等的时间,这还是假设有电力供应的情况下。

到 2028 年底据称要建成的 114GW 数据中心中,只有 15.2GW 在以任何方式、形态或形式施工。而"施工中"可能只意味着"地上有个坑"。它不意味着——也不应该意味着——该设施将提供的容量会很快可用。

让我们从简单开始:每当你想到"100MW",就想"44 亿美元",其中很大一部分用于 NVIDIA GPU。

因此,每个 AI 数据中心一开始就亏损数百万美元,即使采用六年折旧计划,也要多年才能还清……而且随着 NVIDIA 的年度升级周期,一旦你完成第一个客户合同,那些 GPU 不太可能赚那么多钱。

还不清楚 AI 算力的客户群是否存在于 OpenAI 和 Anthropic 之外,这两家的需求占在建 AI 数据中心的 50%,如果他们中任何一家没钱付款,就会造成巨大的系统性弱点。

无论如何,也不清楚这些数据中心收取什么样的持续费率。虽然现货价格可能在每小时 4.50 美元左右/B200 GPU,但长期合同价格通常低得多,一位创始人(据 The Information)说他们为一年期承诺支付约每 GPU 每小时 3.70 美元。

需要明确的是,我们必须区分现货成本——在别人服务器上随机启动 GPU 的成本——和合约算力,后者占数据中心资本支出的大部分。大多数数据中心建设时打算有一两个大客户,这意味着这些客户可能谈判到更便宜的混合费率。

因此,许多数据中心的收费远低于每小时 3.70 美元,因为他们按每兆瓦(或千瓦)价格计费。

这就是经济学开始崩溃的地方。

100MW 数据中心的崩溃经济学——每小时 2.55 美元,100%入驻率下毛利率 16%,因债务而无利可图

这是 100 兆瓦数据中心的起始成本。一个 100MW 的数据中心可能只有 85MW 的实际可计费容量,根据与熟悉超大规模计费的消息源讨论,他们预计每兆瓦收入约 1250 万美元,或年收入约 10.63 亿美元。

现在,我应该明确,你知道的大多数数据中心公司实际上并不建造它们,而是把这项工作留给 Applied Digital 这样的公司,它们也被称为"托管合作伙伴"。例如,CoreWeave 向 Applied Digital 支付托管费用以使用其北达科他州的数据中心。CoreWeave 负责数据中心内的所有 GPU 和其他技术。

为了解释经济不匹配,我将使用一个理论示例,一个租给理论 AI 算力公司的数据中心。

该数据中心的 GPU 很可能是 NVIDIA 的 Blackwell 芯片。更有可能的是,该数据中心使用 8 个 B200 GPU 的 pod,零售价约 45 万美元一个,或每个 GPU 56250 美元。基于 85MW 的关键 IT 负载,每兆瓦的全部资本支出约为 36.78,或总 IT 资本支出约 31.26 亿美元,或约 26.7 亿美元的 GPU。

假设这个数据中心在北达科他州 Ellendale,这意味着工业电价约为每千瓦时 6.31 美分,每年电费约 5540 万美元。根据与消息源的讨论,我估计维护、人员、电源更换等持续成本约占收入的 12%,或每年约 1.28 亿美元,使我们达到 1.834 亿美元的成本。

等等,抱歉。你还得根据关键 IT 支付托管费,根据 Brightlio,该费用通常约为每千瓦每月 180-200 美元,取决于部署的规模和位置,虽然我读到过低至 130 美元,这是我采用的数字,或每年约 1.33 亿美元。这使我们达到 3.164 亿美元。

嗯,这仍然少于 10.6 亿美元,所以我们还好,对吧?

错!你有 31.26 亿美元的 IT 设备要折旧,六年折旧下来每年约 5.21 亿美元。那就是每年 8.374 亿美元,给你留下约 1.686 亿美元的年利润,或约 16.7%的毛利率……

……如果你一直保持 100%的入驻率!你看,数据中心可能需要一两个月来安装这些 GPU 并让客户入驻,在此期间你的收入为零,损失却大得多,因为你一直在支付托管、电力和运营成本,尽管费率低得多(我为 10%的电力和 15%的托管/运营成本建模),这意味着你每天损失约 327 万美元。

为了这个例子,我们假设你需要额外一个月才能让这东西运行起来,这意味着你已经支付了约 1.02 亿美元,再也拿不回来了,使我们包括折旧在内的年度总成本达到 9.394 亿美元,或 6.6%的毛利率。

等等,该死,你没用债务买这些 GPU 吧?你用了?有多糟?哦天哪——你得到了一笔六年期的资产支持贷款,贷款价值比为 80%,意味着你以 6%的利率借了 28 亿美元。

你的银行出于永恒的慷慨,给了你一笔交易——12 个月的宽限期,你只付利息……约 1.68 亿美元,这使我们第一年的总成本(为公平起见不包括延迟的一个月)达到约 10.05 亿美元……收入 10.6 亿美元。

那是 5.19%的毛利率,而你甚至还没开始还本金。当那发生时,你每月要还 5410 万美元的贷款,接下来五年总计每年约 6.49 亿美元,约 14.8 亿美元,或约负 40%的毛利率。

我必须明确,这是如果你有 100%的利用率,而且租户每次都按时付款。

Stargate Abilene 是场灾难——每 GPU 每小时 2.94 美元,年收入 100 亿美元,进度落后数年,只有一个每年亏损数十亿美元的租户

让我们谈谈应该是数据中心历史上最具经济可行性的单一项目——一个由 Oracle 为世界上最大的 AI 公司建造的大型园区,Oracle 是一个拥有数十年历史的近超大规模企业,有向企业和政府销售昂贵数据库和业务管理软件的历史。

哈,我当然是在开玩笑,这地方就是个该死的噩梦。

Stargate Abilene,一个八栋建筑、1.2GW 的数据中心园区,约 824MW 的关键 IT,首次宣布于 2024 年 7 月。截至 2026 年 4 月 27 日,只有两栋建筑运营并产生收入,第三栋几乎没有任何 IT 设备。我估计 Stargate Abilene 的总成本约为 528 亿美元。

根据我自己的报道,Oracle 预计从 Stargate Abilene 获得约 100 亿美元的年收入,我估计从它为一个客户建造的 7.1GW 数据中心容量中获得约 750 亿美元的总收入:OpenAI。正如我还报道的,Oracle 在 2024 年估计 Abilene 每年至少要支付 21.4 亿美元的托管和电费,支付给土地开发商 Crusoe。

我还应该补充,看起来 Oracle 正在支付 Abilene 的所有建设成本。

根据我的计算和报道,我估计 Abilene 一旦全面运营,粗略毛利率约为 37.47%:

image

我必须明确,37.47%的毛利率可能太高了,因为我不知道 Oracle 真实的保险或人员成本的准确数字,只有基于本刊查看的文档的估计。我还应该明确,Oracle 正在把整个该死的未来押在像 Stargate Abilene 这样的项目上,预先产生数十亿美元的成本,这项业务即使 OpenAI 及时支付每一笔款项,也需要多年才能盈利。

遗憾的是,我无法确定 Abilene 有多少是靠债务支付的。我只知道 Oracle 在 2025 年 9 月通过发行不同规模的债券筹集了约 180 亿美元,期限从 7 年到 40 年不等,而且在最近一个季度的财报中出现了 247 亿美元的负现金流。

我确实知道的是,Oracle 与开发商 Crusoe 签订了一份为期 15 年的租约,而且 Oracle 的未来严重依赖 OpenAI 持续付款的能力,而这又取决于 Oracle 能否完成 Stargate Abilene 项目。

我还需要明确,每年 38.5 亿美元的利润只有在 OpenAI 按时付款、以最快速度入驻 Abilene 且一切按计划进行的情况下才可能实现。

如果 OpenAI 无法在未来 4 年内筹集 8520 亿美元的收入、融资和债务,Stargate 数据中心项目将拖垮 Oracle

遗憾的是,完全相反的情况发生了:

根据 DatacenterDynamics 的报道,首批 200MW 的电力本应在"2025 年"投入使用。随着时间推移,入驻本应在 2025 年上半年开始,"有潜力在 2025 年达到 1GW",在 2026 年中期完成全部 1.2GW 容量,在 2026 年中期通电,在 2026 年底前部署 64,000 个 GPU。截至 2025 年 9 月 30 日,"两栋建筑已上线"。截至 2025 年 12 月 12 日,Oracle 联席 CEO Clay Magouyurk 表示 Abilene"按计划推进","已交付超过 96,000 个 NVIDIA Grace Blackwell GB200",也就是两栋建筑的 GPU 数量。四个月后的 2026 年 4 月 22 日,Oracle 在推特上表示"……在 Abilene,200MW 已经投入运营,八栋建筑园区的交付仍按计划进行。"目前不清楚这是 200MW 的关键 IT 容量还是 Abilene 园区的总可用电力。无论如何,这只够支持两栋建筑,这意味着 Oracle 绝对不是"按计划推进"。

这是一个巨大的问题。OpenAI 只能为实际存在的算力付费,而只有 206MW 的关键 IT 容量真正产生收入,第三栋建筑至少还需要一个月(如果不是一个季度的话)才能投入使用。

然而,整个 Stargate 数据中心项目还有一个更大、更根本的问题——只有在 OpenAI 实现其荒谬的、卡通般的预测时,这一切才有意义。

正如我在周五讨论的:

我再重复一遍这些数字:正在建设的 7.1GW Stargate 数据中心完工后将产生约 750 亿美元的年收入,总成本超过 3400 亿美元。Oracle 的自由现金流为负 247 亿美元,其他业务线正在停滞,这使得其负利润到低利润的云业务成为唯一的增长引擎。为了真正能够支付其算力合同——包括与亚马逊、微软、CoreWeave、谷歌、Cerberas 以及 Oracle 的合同——OpenAI 必须在四年内筹集或赚取 8520 亿美元的收入和/或融资,这需要其业务每年增长超过 250%,到 2030 年底实际增长 10 倍,届时它必须找到一种方式实现现金流为正,这些数字才有意义。明确一点,OpenAI 的预测是在未来四年内赚取 6730 亿美元,并为此烧掉 2180 亿美元。这是一项极其无利可图的业务,即使它能盈利,也必须赚取比现在多得多的钱才能持续向 Oracle 付款。

我计算出 750 亿美元这个数字,是假设 Vera Rubin GPU 在剩余的 4.64GW 关键 IT 容量上每兆瓦算力获得约 1400 万美元(这个数字我已经与熟悉数据中心行业的消息源确认过),这是我预计构成剩余 Stargate 数据中心的容量。

OpenAI 的数字直接来自 The Information 报道的 OpenAI 预测烧钱率和收入的泄露信息,该公司预计到 2030 年底将产生 6730 亿美元的收入,并为此烧掉 8520 亿美元:

image

image

我必须明确,任何记者重复这些数字而不指出它们有多愚蠢的人都应该感到有点羞愧。根据我周五的付费内容:

换句话说,OpenAI 预测两年后的收入将超过台积电,三年后的年收入几乎与 Meta 相当,到 2030 年底的年收入将与微软相当(过去 12 个月约 3000 亿美元)。

如果 OpenAI 无法为这些算力付费,Oracle 就会倒闭,因为它仅为建设 Stargate 的数据中心就承担了约 1150 亿美元的债务,还需要另外 1500 亿美元来完成它们:

Oracle 是一家目前年收入约 640 亿美元的公司,上个季度的自由现金流为负 247 亿美元。它在 2025 年 9 月发行了 180 亿美元的债券,在 2026 年 2 月发行了 250 亿美元的债券,在 3 月的某个时候进行了 200 亿美元的市场配售,尽管被称为"已完成"数月,但似乎只是最近才完成了 380 亿美元的 Stargate 威斯康星州和 Shackelford 项目融资。我还将与 Stargate 密歇根州相关的 140 亿美元数据中心债务包括在内。无论如何,Oracle 资本不足以完成 Stargate Abilene。它至少还需要 1500 亿美元才能完成这项工作,这还是假设其他合作伙伴承担约 300 亿美元成本的情况下。老实说,可能还要更多。

我真的需要明确,Oracle 没有其他途径在没有 OpenAI 的情况下实现这笔收入,而且这些项目完全是使用数据中心本身的预计现金流来融资和支付的。

我甚至不是唯一担心这一点的人,OpenAI 的 Sarah Friar 在公司未能达到用户和收入目标后也表达了类似的担忧,据《华尔街日报》报道:

OpenAI 最近未能达到其新用户和收入目标,这些挫折让一些公司领导层担心它是否能够支持其在数据中心上的大规模支出。首席财务官 Sarah Friar 告诉其他公司领导层,她担心如果收入增长不够快,公司可能无法支付未来的计算合同,据知情人士透露。董事会成员最近几个月也更仔细地审查了公司的数据中心交易,并质疑首席执行官 Sam Altman 在业务放缓的情况下仍努力获取更多算力的做法,知情人士说。

如果这还不让你担心,或许这会:

她向高管和董事会成员强调了 OpenAI 需要改善其内部控制,警告公司尚未准备好满足上市公司所需的严格报告标准。一些知情人士说,Altman 倾向于更激进的 IPO 时间表。

这听起来确实像一家能够在十年末赚取 8520 亿美元的公司!

Anthropic 和 OpenAI 一样糟糕,承诺从谷歌和亚马逊获取多达 10GW(年收入超过 1000 亿美元)的算力

虽然我经常批评 OpenAI 的荒谬承诺,但 Anthropic 也不遑多让,承诺从谷歌和亚马逊各获取"多达"5GW 的容量,根据容量规模,我估计这笔交易包括约 1000 亿美元的实际算力承诺。

现在,我应该补充的是,谷歌和亚马逊比 Oracle 更精明、更不绝望,这意味着如果 Anthropic 最终资金耗尽,它们可以承受这一打击。交易中的"多达"部分给了它们一些 Oracle 根本没有的急需的回旋余地。

尽管如此,要真正履行其承诺,Anthropic 到 2030 年底每年必须同意在算力上花费 250 亿到 1000 亿美元。

Anthropic 的首席财务官在 3 月表示,该公司在整个存续期间创造了 50 亿美元的收入。

需要 1568 亿美元的 AI 年度算力收入来支持正在建设的 15.2GW AI 数据中心,需要 1.18 万亿美元来支持所有宣布的 114GW

围绕 Jensen Huang 声称定期出货的数千亿美元 GPU 的近乎色情的兴奋,掩盖了一个有问题的疑问:卖给谁,Jensen?

如果我们假设正在建设的 15.2GW 数据中心容量(预计 2028 年底前完工)的 PUE 约为 1.35,那么我们就有大约 11.2GW 的关键 IT 容量。按每兆瓦 1400 万美元计算,要使这些数据中心物有所值,大约需要 1568 亿美元的年度 GPU 租赁收入。

当你计算到 2028 年底理论上上线的 114GW 容量时,这个数字攀升至 1.18 万亿美元的年收入。

为了给你一些背景,CoreWeave——拥有 Meta、OpenAI、谷歌(为 OpenAI)、微软(为 OpenAI)、Anthropic 和 NVIDIA 作为客户的最大新云服务商——创造了约 51 亿美元的收入,并预计 2026 年将创造 120 亿到 130 亿美元。

究竟谁是所有这些算力的客户,当所有容量建成时,他们购买的可能性有多大?虽然许多不同的数据中心声称其存在的前几年有租户,但这些租户只能在数据中心完工后才开始付费,如果是 AI 初创公司,我认为合理的问题是:当它建成时,它们是否还存在。

记住:AI 算力的客户主要是试图将资本支出移出资产负债表的超大规模云服务商或无利可图的 AI 初创公司。Anthropic 和 OpenAI 都打算在未来几年烧掉数百亿美元,而且它们都没有盈利途径。

这意味着 AI 算力收入的很大一部分——如果不是大部分——依赖于持续的风险投资和债务流入,而这两者只有在投资者仍然相信生成式 AI 将是世界上最大、最巨大的事物时才可能实现。

这究竟如何运作?谁在为这些数据中心容量付费?这是为谁准备的?实际需求在哪里?

如果这种需求存在,客户他妈的怎么付款?

生成式 AI 无利可图且不可持续,而且只会越来越贵

尽管有多个故事说它们将在 2028 年或 2029 年实现盈利,但没有人能向我解释 OpenAI 或 Anthropic 实际上如何实现盈利,特别是考虑到它们的利润率都比预期更差,即使这些利润率剔除了数十亿美元的训练成本。

我他妈的提这个问题已经好几年了。每次我们得到关于 Anthropic 或 OpenAI 的新更新时,我们都会听说它们又比预期多损失了数十亿美元,利润率正在下降,成本正在飙升,尽管承诺会发生完全相反的情况,但一切都更贵了。

即使是 Cursor,一家曾短暂(在被马斯克的 SpaceX 伪收购之前)声称拥有正毛利率的公司,截至 1 月实际上有负 23%的毛利率,如果你包括非付费用户的成本,则为负 31%,如果你真的关心你的会计,你他妈的应该包括这些。神秘的是,报道声称 Cursor 的利润率"最近转为正数",但神奇地不知道有多少,或者这是如何发生的,或者除了一个可能帮助公司被出售的细节之外的任何其他细节。

我也不明白这些 AI 数据中心如何真正有意义,即使它们在前几年有客户付费。经济学是为完美而构建的,容错率为零。它们必须有一致的 100%利用率和入驻率,否则它们最终会烧掉数百万美元,并且无法削减由科技行业最昂贵错误造成的长达数年的折旧墙。

即使它们以某种方式成功,这些也是利润率平庸的可怜生意——最多 70%,假设持续付款、入驻和六年他妈的折旧才能真正实现收支平衡,考虑到年度升级周期使整个事情在你完成支付时几乎过时,这可能很困难。

而这还没有考虑到大多数客户都是无利可图、不可持续的初创公司。

我真的不知道这一切如何解决。

LLM 是一场骗局,客户被欺骗了

我意识到这似乎有点过分,但我真诚地相信,基于订阅的 AI 服务是一种相当于欺诈的欺骗行为,因为它们歪曲了核心单位经济学,从而歪曲了大型语言模型的可能性。通过以月费率向用户出售产品并基于其可用性创建习惯,Anthropic 和 OpenAI 等公司以这样的方式歪曲了它们的业务,以至于它们的大多数用户正在与产品互动,并基于在当前形式下不可持续且无法维护的产品构建工作流程。

我需要非常明确,Anthropic 提供的产品——由于最近的速率限制变化——与你到处读到的产品有很大不同(而且差得多)。Anthropic 有意识地故意营销一个它知道会在三个月内消失的产品。Dario Amodei 不在乎,只要媒体继续报道他今天编造的数十亿年化收入或他发布的任何旨在摧毁某家已经看到增长放缓的倒霉公共 SaaS 公司的新产品。

媒体成员,我怀着充分的尊重说这句话:Anthropic 正在虐待其客户,它这样做是因为它相信它可以逃脱惩罚。这家公司不尊重你,事实上对你持有相当程度的蔑视,这就是为什么它不费心快速修复其服务或以任何连贯的方式解释它们为什么损坏。

这就是为什么 Anthropic 他妈的谎称 Claude Mythos 太强大而无法发布(实际上是容量问题),而实际上它只是另一个他妈的大型语言模型空头支票——因为它认为你会购买它出售的任何东西,而且它已经准确地弄清楚了如何包装它,给你足够合理的"证据",快速浏览系统卡将让你和你的编辑相信你所说的任何内容。

他们也知道你会急于报道它,而不是等待看看实际专家怎么说。

AI 就是一场骗局,骗局的运作方式如下。AI 被以最快速度推到我们面前,以效率最低但最易接触的形式呈现,即便这种形式永远不可能产生任何可持续的商业模式。媒体被催促着立刻宣称"这就是未来",让所有人都认同这是当下的大事,尽可能多地使用它。更关键的是,以订阅制的形式让人们体验它,这样人们永远不会问提供服务的成本是多少。

叙事早已被打包好了。因为很少有讨论大语言模型的人真正了解其实际成本,他们很容易含糊地说"这就像 Uber 一样",因为那是一家亏了很多钱但没倒闭的公司。这样说比说"等等,你是说 OpenAI 今年将亏损 50 亿美元?"要容易得多。

这样想:作为记者、投资者、高管或普通的 LinkedIn 发言者,你可能零零散散读到过每百万输入 tokens 5 美元、每百万输出 tokens 25 美元的数字,但你从未真正体验过亏钱的速度,而这对真正理解这个产品至关重要。Anthropic 和 OpenAI 故意混淆了这种体验,创建了预计在 2026 年烧掉数百亿美元、到 2030 年烧掉数千亿美元的业务,这一切都因为大多数人基于订阅体验来评判生成式 AI。

大语言模型是赌场,你一直在用庄家的钱赌博,同时鼓励人们押注自己的钱,赌能否从特定模型中获得一单位的工作成果。

这是故意的。他们从不想让你思考成本,因为一旦你真正开始思考成本,整件事就显得有点疯狂。我真诚相信基于大语言模型的订阅服务将完全消失,至少在任何生成代码的产品规模上是这样。在此过程中,Amodei 和 Altman 将收尾他们的骗局,或者至少他们自己这么认为。

问题是这些人现在签了太多协议,无法全身而退。

OpenAI 的 CFO 现在已多次表示,她不认为 OpenAI 已为 IPO 做好准备,并对其增长和持续履约能力有重大担忧。重复之前的引述:

据知情人士透露,首席财务官 Sarah Friar 曾告诉其他公司领导层,她担心如果收入增长不够快,公司可能无法支付未来的计算合同费用。

这是一个闪烁的红色警报,在一个理性的市场中会让 Oracle 的股价陷入螺旋式下跌,因为 OpenAI 攀升至年收入超 2800 亿美元对 Oracle 不耗尽资金至关重要。在理性的媒体环境中,这会在每个群聊和 Slack 频道引发担忧浪潮,质疑 OpenAI 是否真能撑下去。

这是公司开始走向衰亡前发生的事。OpenAI 的增长恰恰在需要加速时放缓了。它需要在 2030 年前将当前业务规模扩大 10 倍才能履行义务。OpenAI 的 CFO——最清楚情况的人——正在说她担心如果收入不增长,OpenAI 连算力合同都付不起。这是一个巨大的、闪烁的警示灯!这不是演习!

但真正让我担心的是《华尔街日报》评论说,Friar 认为 OpenAI"尚未准备好满足上市公司所需的严格报告标准"。

这他妈是什么意思?抱歉?这家公司据称已融资 1220 亿美元,据称价值 8520 亿美元,预计到 2030 年底将烧掉 8520 亿美元。它的账目不清楚吗?OpenAI 无法满足什么"严格报告标准"?

如果不是因为这家公司去年占了所有风险投资资金的约 20%,而且我走到哪都得听 Altman、Brockman 和 OpenAI 其他人对普通人应该做什么的无休止空谈,同时他们优雅地发布垃圾软件、花别人的钱,我一般不会这么刨根问底。

鉴于 Anthropic 和 OpenAI 消耗的关注度,这两家公司作为产品和业务都应该完美无缺。但两者都通过不同程度的经济和效能欺骗来销售,混淆真相,好让他们的 CEO 能积累金钱、权力和关注。这是对优质软件和品味的侮辱——史上最昂贵、最不可靠的应用,它们的错误被原谅,平庸被庆祝,基础设施被誉为资本的惰性之神。

生成式 AI 是一种侮辱。它不可靠,经济账算不过来,产出无法证明其存在的正当性,而骗局的实施者是无聊、笨拙、贪婪的人,与社会和任何可能反对他们的人脱节。它需要窃取所有人的艺术,破坏环境,提高我们的电费,持续威胁经济毁灭,无休止地喧嚷"一切都因为 AI 变糟了",这一切只是为了推广只有愿意忽视基本财务或常识的人才能为其辩护的软件。

这一切都太昂贵,而且太他妈无聊了。它无聊得令人生厌。它让人主动感到烦躁。每个告诉你自己多么频繁使用 AI 的故事听起来都像是他们陷入了虐待关系和/或加入了邪教,回荡着微妙的绝望,仿佛在说"你真的需要和我一起做这件事,因为它太好了,而我似乎从这个产品中得不到任何快乐,这只是它有多高效的标志。"AI 能做的事情没有任何轻松或快乐的成分。大语言模型没有任何古怪或异想天开之处,每次互动都感觉空洞。

那些拼命寻找它正变得有意识或"更强大"的线索的人,只是在寻求自我验证——他们想成为第一个发现某事的人,因为得出别人的结论就是他们谋生的方式。

成为"第一个"——可以说在"前沿"——是人们在内心找不到东西时渴望的,这正是骗子渴望的燃料,因为大语言模型不断嗡嗡作响,给人一种即将做出新事物的感觉,尽管它们在数学上被限制为重复其他行动。

这是一个深深悲哀的时代。那些如此积极地共同努力支撑这个行业的人,只是推迟了它不可避免的衰落。让我感到恐惧的是,我们的市场和部分经济被普遍持有但完全未经证实的假设所支撑,即大语言模型会以某种方式变得更便宜,AI 初创公司会神奇地变得盈利,提供 AI 算力将永久盈利,以至于需要在 2030 年前将当前供应增加十倍。

人们为了捍卫 AI 行业而贬低自己,因为这就是该行业对其信徒的要求。要成为"AI 专家"需要你主动忽视历史上任何行业最糟糕的经济状况,不断为产品明显而刺眼的问题辩解,并积极说服其他人也这样做。OpenAI 和 Anthropic 不提供如何盈利的清晰解释,因为他们知道支持者永远不会要求——因为完全"相信 AI"的唯一方法就是主动戴上眼罩。

我理解。如果你承认 OpenAI 和/或 Anthropic 最终会崩溃,这一切似乎有点疯狂。我真诚地请求你认真考虑这两家公司中的一家或两家会耗尽资金。

我真的很担心,而且媒体和更广泛社会普遍缺乏关注让我更加担心。

如果我必须想象,假设是我只是危言耸听,"需求绝对会在那里。"

你最好希望自己是对的。

至少为了 Larry Ellison 着想。Ellison 已经质押了 3.46 亿股 Oracle 股票——约 615 亿美元——"以担保某些个人债务,包括各种信用额度",意味着"许多大额、漂亮的以 Oracle 股票为抵押的贷款。"IFR 在 9 月份(当时 Oracle 股价高得多)估计,这可能让他以(他们说的"保守的")20%贷款价值比获得多达 214 亿美元的债务,这还是假设银行不是特别慷慨。

如果 OpenAI 在 2030 年底前无法筹集到 8520 亿美元的收入和资金,它将无法支付 Stargate 的费用。这将扼杀 Oracle 股票的价值,导致一系列追加保证金通知,导致 Ellison 不得不出售股票,导致进一步的追加保证金通知。无论存在什么救助,都救不了 Larry 的资产。

我要说的是,Ellison 的未来取决于 Sam Altman 在 4 年内筹集资金并创造 8520 亿美元收入的能力。

祝你好运,Larry!你会需要的。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

深潮TechFlow的精选文章

54分钟前
一个 1.5 万人的加勒比小岛,靠卖 .ai 域名收了一半的政府预算
58分钟前
Robinhood Q1 营收利润均不及预期,加密交易收入暴跌 47%,盘后跌超 6%
1小时前
Anthropic 被链上估值万亿美元?Jupiter 上的股权代币可能只是一个幻觉
查看更多

目录

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

相关文章

avatar
avatarPANews
4分钟前
韩国国税厅已启动明年1月实施虚拟资产征税的准备工作
avatar
avatarOdaily星球日报
5分钟前
a16z:普通人利用AI工具进行DeFi攻击,成功率有多高?
avatar
avatarForesight News
10分钟前
敏感时刻,摩根大通 CEO 警告「信用债危机比预期更严重」,市场应声下挫
avatar
avatarPANews
20分钟前
美国住房法案受阻后众议院共和党转向FISA法案推动CBDC永久禁止条款
avatar
avatarPANews
32分钟前
Solana链上RWA规模突破25亿美元,创历史新高
APP下载
Windows
Mac

X

Telegram

Facebook

Reddit

复制链接