今天看到一份报告,讲到2030年,未来75%的AI计算需求将会来自推理,这里面将会催生出AI投资下半场的巨大机会,下面👇我们来简单聊一聊。🧐
过去两年,大家都在疯狂囤 GPU 训练模型,烧钱堆算力。但最近大家有没有发现,情况开始变了?尤其是小龙虾🦞出来以后,各类Agent可谓大爆发,Token需求指数级增长。一个崭新的推理时代正在到来,未来AI最大的叙事点是让AI应用走进全球几十亿用户手中,并真正使用起来!
这个转折点,我把它叫做从「训练时代」到「推理时代」的切换。而在这个新阶段,CPU 和定制芯片将是未来真正的主角。
👇咱们掰开揉碎了讲讲,为啥我开始盯上这些以前不起眼的家伙:
🎯 AI 现在有「脑子」了
以前的 AI 就是个工具,我问它答,无法去执行具体的工作。现在不一样了,Agentic AI来了,它能帮我订机票、改文档、写代码,甚至帮我规划整个工作流程。
这种活儿需要大量的逻辑判断和顺序编排。以前GPU是肌肉男,干体力活厉害;但现在这种执行活,CPU 才是指挥官,它擅长处理复杂的逻辑。AI 越聪明,越需要 CPU 来调度指挥。
🎯 大厂也得省钱啊
看财报,各大厂在AI领域的资本开支都十分庞大,其中七巨头除苹果之外,26年全年资本开支总额超过了6000亿美金。不要以为谷歌、Meta 这些巨头就不差钱。恰恰相反,他们也是把钱花在刀刃上。假如一直用英伟达的通用 GPU 来搞推理,电费和硬件成本会把他们吃掉。
所以大厂开始自己设计专用芯片ASIC,就像咱们切菜用菜刀、砍柴用斧头,专芯专用,效率高成本低。这是实打实的降本增效。
基于上述逻辑,我们筛了五个核心标的:
• #AMD:推理界的全能选手,GPU MI300/325 系列拥有业内领先的内存带宽(256GB HBM3E内存,带宽达6TB/s,参数上优于英伟达H200),能轻松处理超大规模LLM的实时推理,而且速度快。关键是它还是服务器 CPU 的老二,代理式 AI 需要强 CPU 时,AMD 两头吃。
• #ARM:底层架构之王,谷歌、亚马逊自研芯片基本都跑 ARM 架构,ARM Neoverse 平台已经成为 90% 以上自研 AI 服务器 CPU 的首选。所以大厂搞自研,ARM 相当于在家坐着收过路费。
• 博通(#AVGO):定制芯片的总工程师,它作为 Google TPU、Meta MTIA 和字节跳动的重要合作伙伴,博通在高速互联和封装技术上拥有绝对统治力,是云巨头降低推理成本的首选合作伙伴。大厂想省钱搞自研,离不开博通的技术。
• 迈威尔(#MRVL):深度参与亚马逊 AWS 和微软 Azure 的芯片研发,这俩巨头想摆脱英伟达依赖,必须依靠迈威尔。目前迈威尔的定制硅片业务正从“研发期”进入“爆发收获期”,未来的生意只会越做越大。
• 英特尔(#INTC):虽然最近比较难,但它是唯一有自家晶圆厂的设计商,还拥有全球稀缺的 IDM 2.0 代工能力。当推理导致全球 CPU 需求激增、供应链紧张时,Intel 内部的这种协同效应和本土制造优势将会逐渐凸显,而且它还是服务器 CPU 老大。
看完整份报告,我个人认为有几个大趋势将会成为必然:
首先是从以前的「暴力算力」到未来的「精细化运营」。现在来看,整个AI 投资逻辑正在转变,不再是谁芯片最强,而是谁的方案最省钱、最能落地。说明AI真正商业化全面落地场景下,能效比率才是关键。
其次是供应链博弈。各大云巨头都在搞自研芯片,未来 AI 硬件市场会从「英伟达一家独大」变成「群雄割据」。我认为这对整个产业链将是好事。
最后就是电力依然会成为长期瓶颈。虽然 CPU 和 ASIC 在优化效率,但整体算力规模爆炸,对电力的需求还是无限大。看芯片的同时,能源赛道也值得留意。
总结一句话,#AI 下半场,别光盯着那块最贵的 GPU,那些负责指挥的CPU和帮大厂省钱的ASIC,可能藏着下一波机会。
目前上述提及的公司在 #MSX 上面基本都有,炒美股,我选择用 #RWA 美股代币化平台 #MSX,一同投资参与美股市场:http://msx.com/?code=Vu2v44
早期美股投资粉丝和伙伴,可以私信我,填写表单后,可免费进入美股交流和探讨社群(目前每周仅限定10人,助理审核,可能需要一点时间,感恩🙏)!


免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。