K线
数据链上
VIP
市值
API
排行
CoinOSNew
CoinClaw🦞
语言
  • 简体中文
  • 繁体中文
  • English
全球行情数据应用领跑者,致力于更高效地提供有价值的信息。

功能

  • 实时行情
  • 特色功能
  • AI网格

服务

  • 资讯内容
  • 开放数据(API)
  • 机构服务

软件下载

  • PC版
  • Android版
  • iOS版

联系我们

  • 聊天室
  • 商务邮箱
  • 官方邮箱
  • 官方验证通道

加入社区

  • Telegram
  • Twitter
  • Discord

© Copyright 2013-2026. All rights reserved.

简体繁體English
|旧版

一篇论文,把存储股打了下去

CN
深潮TechFlow
关注
3小时前
AI 总结,5秒速览全文
AI 军备竞赛的主战场,正在从"堆算力"向"极致效率"迁移。

作者:深潮 TechFlow

3 月 25 日,美股科技股普涨,纳斯达克 100 指数飘红,但有一类股票在逆势流血:

闪迪收跌 3.50%,Micron 跌 3.4%,希捷跌 2.59%,西部数据跌 1.63%。整个存储板块像在一场派对上突然被人拉了电闸。

凶手是一篇论文,或者更准确地说,是 Google Research 对一篇论文的正式推广。

这篇论文到底做了什么

理解这件事,需要先搞清楚一个 AI 基础设施里鲜被外界关注的概念:KV Cache。

当你跟一个大语言模型对话,模型不会每次都从零开始理解你的问题。它会把整段对话的上下文,以一种叫做"键值对"(Key-Value Pair)的格式存在内存里,这就是 KV Cache,模型的短期工作记忆。

问题在于,KV Cache 的大小与上下文窗口的长度成正比增长。当上下文窗口达到百万 token 量级时,KV Cache 消耗的 GPU 内存甚至可能超过模型本身的权重。对于一个同时服务大量用户的推理集群而言,这是真实的、每天都在烧钱的基础设施瓶颈。

这篇论文的原始版本,最早出现在 2025 年 4 月的 arXiv 上,将在 ICLR 2026 正式发表。Google Research 将其命名为 TurboQuant,一个将 KV Cache 压缩至 3 比特、内存减少至少 6 倍的无损量化算法,无需任何训练或微调,开箱即用。

具体的技术路径是两步走:

第一步,PolarQuant。 它不使用标准的笛卡尔坐标系来表征向量,而是将向量转换为极坐标——由"半径"和一组"角度"构成——从而从根本上简化了高维空间的几何复杂性,使后续量化可以在更低的失真率下完成。

第二步,QJL(Quantized Johnson-Lindenstrauss)。 在 PolarQuant 完成主要压缩之后,TurboQuant 使用仅 1 比特的 QJL 变换,对残余误差进行无偏校正,从而保证内积估计的精确性——这对 Transformer 注意力机制的正确运行至关重要。

结果:在涵盖问答、代码生成和摘要任务的 LongBench 基准测试中,TurboQuant 匹配甚至超越了现有最优基线 KIVI 的表现;在"大海捞针"检索任务上,实现了完美召回率;在 NVIDIA H100 上,4 比特 TurboQuant 对注意力逻辑运算的加速达到 8 倍。

传统量化方法有个原罪:每压缩一块数据,都需要额外存储"量化常数"来记录如何解压,这个元数据的开销往往高达每个数值额外 1 到 2 比特,看起来不多,但在百万 token 的上下文下,这些 bits 会以令人绝望的速度累积。TurboQuant 通过 PolarQuant 的几何旋转和 QJL 的 1 比特残差校正,彻底消除了这一额外开销。

市场为什么慌了?

结论的直接性让人很难忽视:一个需要 8 块 H100 才能服务百万 token 上下文的模型,理论上只需要 2 块就够了。推理服务商可以用同样的硬件同时处理 6 倍以上的并发长上下文请求。

这对存储板块的核心叙事是一刀刺向要害。

过去两年,Seagate、西部数据、Micron 之所以被 AI 资本热潮抬上神坛,底层逻辑只有一个:大模型越来越能"记住"更多,长上下文窗口对内存的胃口没有上限,存储需求将持续爆炸式增长。Seagate 2025 年涨了超过 210%,公司本身 2026 年的产能早已售罄。

TurboQuant 的出现,直接挑战了这个叙事的前提。

富国银行科技分析师 Andrew Rocha 的评论最为直接:“随着上下文窗口越来越大,KV Cache 中的数据存储呈爆炸式增长,对内存的需求随之攀升。TurboQuant 正在直接攻击这条成本曲线……如果它能被广泛采用,将从根本上令人质疑到底需要多大的内存容量。”

但 Rocha 也用了一个关键前提:IF。

这件事真正值得争论的部分

市场的反应是否过激了?答案大概率是:有点。

首先,8 倍加速的标题党问题。 多位分析师指出,这个 8 倍加速的对比基准,是用新技术与旧的 32 位非量化系统相比,而非与当前实际部署中已普遍优化的系统比较。真实的提升存在,但不像标题暗示的那样戏剧性。

其次,论文只测试了小模型。 TurboQuant 的所有评测,所用模型的参数量顶多在 80 亿左右。真正让存储供应商日夜焦虑的,是 700 亿甚至 4000 亿参数的超大模型,那里的 KV Cache 才是真正的天文数字。TurboQuant 在这些量级上的表现,目前仍是未知数。

第三,Google 自己还没有发布任何官方代码。 截至目前,TurboQuant 不在 vLLM、llama.cpp、Ollama 和任何主流推理框架中。是社区开发者自己从论文数学推导中复现了早期实现,一个早期复现者明确指出,QJL 的误差校正模块如果实现不当,输出会直接变成乱码。

但这并不意味着市场的担忧是无中生有。

这是 2025 年 DeepSeek 时刻留下的集体肌肉记忆在发挥作用。那次事件教会了整个市场一个残酷的教训:算法层面的效率突破,能在一夜之间让昂贵的硬件叙事面目全非。此后,任何来自顶级 AI 实验室的效率突破,都会触发硬件板块的条件反射。

况且,这次的信号来自 Google Research,不是一家名不见经传的大学实验室,这家公司有足够的工程能力将论文转化为生产级工具,而且它自己就是全球最大的 AI 推理消费者之一。一旦 TurboQuant 在内部落地,Waymo、Gemini、Google Search 的服务器采购逻辑就会悄悄改变。

历史反复上演的那个剧本

这里有一个经典争论,值得认真对待:杰文斯悖论。

19 世纪经济学家杰文斯发现,蒸汽机效率的提升,非但没有减少英国的煤炭消耗,反而导致消耗大幅增加——因为效率提升降低了使用成本,反而刺激了更大规模的应用。

支持者的逻辑是:如果 Google 让一个模型能在 16GB 显存上运行,开发者不会就此收手,他们会用省下来的算力去运行 6 倍复杂的模型,处理更大的多模态数据,支持更长的上下文。软件效率最终解锁的,是那些此前因成本过高而根本无法触及的需求层。

但这个反驳有个前提:市场需要时间来消化和重新扩张。在 TurboQuant 从论文变成生产工具、从生产工具变成行业标准的这段时间里,硬件需求的扩张能否足够快地填补效率带来的"缺口"?

没有人知道答案。市场正在为这个不确定性定价。

这件事对 AI 行业的真正意义

比存储股的涨跌更值得关注的,是 TurboQuant 揭示的一个更深层趋势。

AI 军备竞赛的主战场,正在从"堆算力"向"极致效率"迁移。

TurboQuant 如果能在大规模模型上证明自己的性能承诺,将带来一个根本性的转变:长上下文推理从"只有顶级实验室才负担得起的奢侈品",变成默认的行业标准。

而这场效率竞赛的赛点,恰恰也是 Google 最擅长的领域,数学上近乎最优的压缩算法,底层是 Shannon 信息论的极限追逐,而不是暴力的工程堆砌。TurboQuant 的理论失真率,只比信息论下界高约 2.7 倍的常数因子。

这意味着,类似的突破未来不会只有一个。它代表的是一整条研究路径正在走向成熟。

对存储行业而言,更清醒的问题或许不是“这次会不会影响需求”,而是:当 AI 推理的成本曲线持续被软件层压低,硬件层的护城河还能宽到什么程度?

目前的答案是:还很宽,但没有宽到可以对这类信号置之不理的程度。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

Siren 暴涨百倍,Alpha下一个等你来!
广告
|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

深潮TechFlow的精选文章

1小时前
Delphi Labs 创始人:深入中国 AI 两周,深圳硬件让我震惊,软件估值让我害怕
2小时前
Kimi、智谱、豆包齐聚一场加密黑客松:AI 开发者在 Monad 上构造了什么?
2小时前
币安整顿主动做市商,一场迟到的审判
查看更多

目录

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

相关文章

avatar
avatarOdaily星球日报
1分钟前
黄仁勋点名?SN3 月涨5倍,到底做了什么?
avatar
avatar律动BlockBeats
12分钟前
a16z:DeFi难以承载真正的金融市场
avatar
avatar律动BlockBeats
20分钟前
具身智能的「GPT时刻」是否已经临近?Axis Robotics宣布结束测试,即将于Base链上线
avatar
avatarOdaily星球日报
31分钟前
Circle被低估了:即便法案施压,估值仍看750亿
avatar
avatar链捕手
36分钟前
a16z Crypto 运营合伙人:华尔街为何转向区块链?
APP下载
Windows
Mac

X

Telegram

Facebook

Reddit

复制链接