K线
数据链上
VIP
市值
API
排行
CoinOSNew
CoinClaw🦞
语言
  • 简体中文
  • 繁体中文
  • English
全球行情数据应用领跑者,致力于更高效地提供有价值的信息。

功能

  • 实时行情
  • 特色功能
  • AI网格

服务

  • 资讯内容
  • 开放数据(API)
  • 机构服务

软件下载

  • PC版
  • Android版
  • iOS版

联系我们

  • 聊天室
  • 商务邮箱
  • 官方邮箱
  • 官方验证通道

加入社区

  • Telegram
  • Twitter
  • Discord

© Copyright 2013-2026. All rights reserved.

简体繁體English
|旧版

智谱、月之暗面、小米同台圆桌会议:大模型真正开始“干活”,算力仍是最大瓶颈

CN
深潮TechFlow
关注
3小时前
AI 总结,5秒速览全文
杨植麟主持、罗福莉张鹏抛干货,这场“龙虾局”把AI未来聊透了。

作者:陈骏达

智东西 3月 27 日报道,今天,在中关村论坛上,智谱 CEO 张鹏、月之暗面 CEO 杨植麟(担任主持)、小米 MiMo 大模型负责人罗福莉、无问芯穹 CEO 夏立雪和香港大学助理教授黄超罕见同台,进行了一场围绕开源大模型与智能体未来走向的深度对话。

这场对话以当下最火的 OpenClaw 切入,几位嘉宾一致认为,智能体让大模型真正开始“干活”了。OpenClaw 可扩展大模型的能力边界,但也对模型提出了更高要求,智谱正研究长程规划、自我调试等能力,而罗福莉的团队更关注通过架构创新把成本降下来、速度提上去,甚至实现模型自进化。

基础设施也得跟上智能体的节奏。夏立雪认为现在的算力系统和软件架构还是给人用的,不是给智能体用的,其实是用人的操作能力限制了 Agent 的发挥空间。因此,我们需要打造 Agentic Infra。

在多位嘉宾眼中,开源是推动大模型与智能体发展的核心动力之一。香港大学助理教授黄超便认为,开源生态的繁荣是智能体从“玩一玩”走向真正“打工人”的关键,只有通过社区共建,才能让软件、数据和技术全面转向智能体原生形态,最终形成可持续的全球 AI 生态。

此外,几位嘉宾还就大模型涨价、token 用量爆发、AI 未来 12 个月的关键词等话题,展开讨论。以下是这场圆桌论坛的核心观点:

1、张鹏:模型变大后推理成本也会相应提高,近期智谱的涨价策略其实是回归到正常的商业价值上了,长期低价竞争不利于行业发展。

2、张鹏:智能体等新技术的爆发让 token 用量增长了 10 倍,但实际需求可能增长 100 倍,仍有大量需求未被满足,因此算力仍然是未来 12 个月内的关键问题。

3、罗福莉:从基座大模型厂商的视角来看,OpenClaw 保证了基础大模型的下限,拉高了上限。国产开源模型+OpenClaw 的任务完成度已经非常接近 Claude。

4、罗福莉:DeepSeek 给国内大模型厂商带来了勇气和信心。一些看似是“为了效率妥协”的模型结构创新引发了真正的变革,让业界在算力一定的情况下发挥出最高的智能水平。

5、罗福莉:接下来一年 AGI 历程中最重要的事情是“自进化”。自进化让大模型像顶尖科学家一样去探索,是唯一能“创造新东西”的地方。小米已经借助 Claude Code+顶尖模型,将研究效率提升 10 倍。

6、夏立雪:当 AGI 时代到来时,基础设施本身都应该是智能体,自主管理整个基础设施,根据 AI 客户的需求去迭代基础设施,实现自我进化、自我迭代。

7、夏立雪:OpenClaw 引爆了 token 用量。如今的 token 消耗速度,就像当年 3G 时代手机流量刚起步时,每个月只有 100M 额度的那种感觉。

8、黄超:未来很多软件都不是面向人类的,软件、数据和技术都会编程 Agent-Native 的形态,人类未来可能只需要使用那些“让自己快乐的 GUI”。

以下是这场圆桌论坛的完整实录:

01.OpenClaw 就是“脚手架”,大模型 token 消耗仍处于 3G 时代

杨植麟:很荣幸今天能邀请到各位重磅嘉宾,几位嘉宾来自模型层、算力层再到 agent 层。今天最主要的关键词是开源,然后还有 agent。

第一个问题来谈谈现在最流行的 OpenClaw。大家日常使用 OpenClaw 或者类似的产品有什么觉得最有想象力或者印象深刻的点?从技术的角度来看,如何看待今天 OpenClaw 和相关的 Agent 的演进。

张鹏:很早我就开始自己玩 OpenClaw,当时还叫 Clawbot。我自己动手来折腾,毕竟也是程序员出身,玩这些东西还是有一些自己的体验。

我觉得 OpenClaw 给大家带来的最大突破点,或者说新鲜感就在于,它不再是程序员或极客们的专利。普通人也可以比较方便地使用顶尖模型的能力,尤其是在编程和智能体方面的能力。

所以我到现在为止,跟大家在交流的过程当中,我更愿意把 OpenClaw 称作“脚手架”。它提供的是一种可能性,在模型的基础之上搭起了一个很牢固、很方便,但是又很灵活的脚手架。大家可以按照自己的意愿,去使用很多底层模型提供的新奇功能。

原来自己的想法可能会受限于不会写代码,或者没有掌握其他的相关技能,今天有了 OpenClaw,终于可以通过很简单的交流就把它完成。

OpenClaw 给我带来非常大的冲击,或者说让我重新认识了这件事。

夏立雪:其实我最开始用 OpenClaw 的时候是不太适应的,因为我习惯于跟大模型聊天的交流方式,使用后我感觉 OpenClaw 反应好慢。

但后来我意识到一个问题,就是它和之前的聊天机器人有一个很大的不同,本质是一个能帮我完成大型任务的“人”。我开始给它提交更复杂的任务,就发现其实它能够做的很好。

这件事情给我带来很大的感触。模型一开始按照 token 去聊天,到现在能够变成一个 agent,变成一个龙虾,能够帮你去完成任务。这件事对 AI 的整体想象力空间带来很大的提升。

同时,它对于整个系统的能力的要求也变得很高。这也是为什么我一开始用 OpenClaw,会觉得它有点卡。作为基础设施层的厂商,我看到的是 OpenClaw 对于 AI 背后的大型系统和生态都带来了更多的机遇和挑战。

我们现在所有能够用到的资源,想要支撑起这样一个快速增长的时代是不够的。比如说就拿我们公司来说,我们公司从一月底开始,基本上每两周 token 用量就翻一番,到现在基本上涨了 10 倍。

上次见到这个速度,还是当年用 3G 手机消耗流量的时候。我有种感觉,现在的 token 用量,就像当年每个月只有 100M 手机流量的那个时代。

这种情况下,我们所有的资源都需要进行更好的优化,进行更好的整合。让每一个人,不仅仅在 AI 领域,而是在整个社会中的每一个人都能够去把 OpenClaw的 AI 能力用起来。

作为基础设施的玩家,我对这个时代是非常激动、深有感触的。我也认为这里边有很多的优化空间是我们仍然应该去探索,应该去尝试的。

02.OpenClaw 拉高国产模型上限,交互模式突破意义重大

罗福莉:我自己是把 OpenClaw 当做 agent 框架演进过程中,一个极具革命性和颠覆性的事件来看待的。

其实我身边所有在进行非常深度 coding 的人,他们的第一选择还是 Claude Code。但是,我相信用 OpenClaw 的人会感受到,它在 Agent 框架上的很多设计是领先于 Claude Code 的。最近 Claude Code 有很多更新其实都是在向 OpenClaw 去靠近。

我自己使用 OpenClaw 时的感受是,这个框架给我自己带来更多是想象力的随时随地的扩展。Claude Code 最开始只能在我的桌面上去延展我的创意,但是 OpenClaw 可以随时随地去延展我的创意。

OpenClaw 带来的核心价值主要有两点。第一点是它开源。开源这件事,非常有利于整个社区深度参与进来,重视并推动这个框架的演进,这是一个很重要的前置条件。

像 OpenClaw 这样的 AI 框架,我觉得一个很大的价值在于,它把国内那些水平虽然接近闭源模型、但还没完全追上的模型的上限拉到了很高。

在绝大多数场景下,你会发现它(国产开源模型+OpenClaw)的任务完成度已经非常接近 Claude 的最新模型。同时,它又很好地把下限保证了——通过一套 Harness 系统,或者说借助它的 Skills 体系等多方面的设计,保障了任务的完整度和准确率。

总结一下,从基座大模型厂商的开发者角度来看,OpenClaw 保证了基础大模型的下限,拉高了上限。

此外,我认为它给整个社区带来的另一个价值是,它点燃了大家的认知,让大家发现在大模型之外,Agent 这一层其实蕴藏着非常大的想象空间。

我最近也观察到,社区里除了研究员之外,越来越多的人开始参与到 AGI 的变革中来,更多人开始接触像 Harness、Scaffold 这样更强大的 Agent 框架。这些人某种程度上是在用这些工具替代自己的一部分工作,同时也是在释放自己的时间,去投入到更有想象力的事情上。

黄超:我觉得首先从交互模式来讲,OpenClaw 这次之所以能火,第一个原因可能是它给了一种更有“活人感”的体验。其实我们做 Agent 也有一两年了,但之前像 Cursor、Claude Code 这些 Agent,给人的感觉更多是一种“工具感”。而 OpenClaw 第一次以“即时通讯软件嵌入”的方式,让人更有一种接近心目中“个人贾维斯”的感觉。我觉得这可能是交互模式上的一个突破。

另外一点,它给整个社区带来的启发是:像 Agent Loop 这种简单但高效的框架,再次被证明是可行的。同时,它也让我们重新思考一个问题:我们到底是需要一个全能型的、能做所有事情的超级智能体,还是需要一个更好的“小管家”,像一个轻量级的操作系统或脚手架?

OpenClaw 带来的思路是,通过这样一个“小系统”或者说“龙虾操作系统”和它的生态,让大家真正有“玩起来”的心态,进而撬动整个生态里的所有工具。

随着 Skills、Harness 这类能力的出现,越来越多的人可以去设计面向 OpenClaw 这类系统的应用,去赋能各行各业。我觉得这一点天然就跟整个开源生态结合得非常紧密。在我看来,这两点是我们获得的最大启发。

03.GLM 新模型专为“干活”打造,涨价是对正常商业价值的回归

杨植麟:想问一下张鹏。最近看到智谱发布了新的 GLM-5 Turbo 模型,我理解在 Agent 能力上做了很大的增强。能不能给大家介绍一下这个新模型和其他模型的不同之处?另外我们也观察到有提价的策略,这反映了什么样的市场信号?

张鹏:这是个很好的问题。前两天我们确实紧急更新了一波,这其实是我们整个发展路标中的一个阶段,只是提前把它放了出来。

最主要的目的,是从原来的“简单对话”转向“真正干活”——这也是大家最近普遍感受到的:大模型不再只是能聊天,而是真的能帮人干活了。

但“干活”背后隐含的能力要求非常高。模型需要自己去做长程的任务规划、不断试错、压缩上下文、调试,还可能要处理多模态信息。所以它对模型能力的要求,和传统面向对话的通用模型其实不太一样。GLM-5 Turbo 就是在这些方面做了专门加强,尤其是你提到的——让它干活、跑上七十二小时,怎么能够不停地 loop,这里边我们做了很多工作。

另外大家也很关注 token 消耗的问题。让一个聪明的模型去干复杂任务,token 的消耗量是巨大的。普通人可能感知不深,但看账单的时候会发现钱掉得特别快。所以我们在这方面也做了优化,在面临复杂任务时,模型能用更高效的 token 效率去完成。总体上,模型的架构还是多任务协同的通用架构,只是在能力上做了偏向性的加强。

提价这件事其实也很好解释。刚才说了,现在不再是简单地问一个问题就得到一个回答,背后的推理链路非常长。很多任务要通过写代码和底层基础设施打交道,还要不断 debug、修正错误,消耗量非常大。完成一个复杂任务需要的 token 量,可能是原来回答一个简单问题的十倍甚至百倍。

所以价格上需要有一定的提升,模型也变大了,推理成本相应提高了。我们把它回归到正常的商业价值上,因为长期靠低价竞争也不利于整个行业的发展。这也是我们让商业化能形成一个良性闭环,持续优化模型能力,给大家提供更好服务的。

04.打造更高效 token 工厂,基础设施本身也应该是 Agent

杨植麟:现在开源模型越来越多,也开始形成生态,各种模型可以在不同的算力平台上给用户提供更多价值。随着 token 用量的爆发,大模型也正在从训练时代走向推理时代。想请教一下立雪,从基础设施的层面来看,推理时代对于无问来说意味着什么?

夏立雪:我们是一家诞生在 AI 时代的基础设施厂商,现在也在为智谱、Kimi、Mimo 等提供支持,让大家能把 token 工厂更高效地用起来。同时我们也在跟很多高校、科研院所合作。

所以我们一直在思考一件事:AGI 时代需要什么样的基础设施?以及我们怎么一步步去实现和推演它。我们现在对短期、中期、长期不同阶段需要解决的问题,已经做好了充分准备。

当前最直接的问题,就是大家刚才聊到的——整个 Open 带起来的 token 量暴增,对系统效率提出了更高的优化需求。包括价格的调整,其实也是在这个需求下的一种应对方式。

我们一直是通过软硬件打通的方式来布局和解决的。比如我们接入了几乎所有种类的计算芯片,把国内十几种不同的芯片和几十个不同的算力集群统一连接起来。这样能解决 AI 系统里算力资源紧缺的问题,资源不足时,最好的办法就是先把能用上的资源都用起来,然后让每一个算力都用在刀刃上,发挥出最大的转化效率。

所以在这个阶段,我们要解决的就是怎么打造一个更高效的 token 工厂。这里边我们做了很多优化,包括让模型和硬件上的显存等各种资源做最优适配,也在看最新的模型结构和硬件结构之间能不能产生更深的化学反应。但解决当前的效率问题,其实只是打造了一个标准化的 token 工厂。

面向 Agent 时代,我们认为这还不够。因为 Agent 更像一个人,可以交给它一个任务。我坚定地认为,当前很多云计算时代的基础设施,是为服务一个程序、服务人类工程师设计的,而不是为 AI 设计的。这相当于我们做了一个基础设施,上面是给人用的接口,再在上面包一层去接入 Agent,这种方式其实是用人的操作能力限制了 Agent 的发挥空间。

举个例子,Agent 能做到毫秒级别去思考和发起任务,但像 K8s(kubernetes)这类底层能力,其实并没有为此做好准备,因为人类发起任务大概是分钟级的。所以我们需要更进一步的能力,我们把它叫“Agentic Infra”,也就是“智慧化的 token 工厂”,这是无问芯穹在做的事情。

更长远地看,真正 AGI 时代到来时,我们认为连基础设施本身都应该是智能体。我们打造的这套工厂,也应该是能自我进化、自我迭代的,能形成一个自主的组织。它相当于有一个 CEO,这个 CEO 本身就是一个 Agent,可能是 OpenClaw,去管理整个基础设施,然后根据 AI 客户的需求自己去提需求、迭代基础设施。这样 AI和 AI 之间才能更好地耦合。我们也在做一些探索,比如让 Agent 之间更好地通信、做 Cache to Cache 这样的能力。

所以我们一直在思考的是,基础设施和 AI 的发展不应该是一个隔离的状态——我接到需求就去实现,而是应该产生非常丰富的化学反应。这才是真正意义上的软硬协同、算法和基础设施的协同,也是无问芯穹一直想实现的使命。谢谢。

05.“为效率妥协”的创新也有意义,DeepSeek 给国内团队带来勇气和信心

杨植麟:接下来想问一下福莉。小米最近通过发布新模型、开源背后的技术,对社区做出了很大的贡献。想问你,小米在做大模型方面,你觉得有什么独特的优势?

罗福莉:我觉得可以先抛开小米有什么独特优势这个话题,我更想聊一聊中国做大模型的团队整体上的一个优势。我觉得这个话题有更广泛的价值。

大概两年前,中国的基座模型团队已经开始了非常好的突破——我们在有限的算力、尤其是在一些 NVLink 互联带宽受限的算力条件下,怎么去突破这些低端算力的限制,做一些看似是“为了效率妥协”的模型结构创新,比如 DeepSeek V2、V3 系列,以及 MoE、MLA 等等。

但后来我们看到,由这些创新引发的是一个变革:在算力一定的情况下,怎么发挥出最高的智能水平。这是 DeepSeek 给国内所有基座模型团队带来的勇气和信心。虽然今天我们的国产芯片,尤其是推理芯片,以及训练芯片,已经不再受这种限制,但正是在这种限制下,催生了我们对更高训练效率、更低推理成本的模型结构的新探索。

就像最近出现的 Hybrid Sparse、Linear Attention 这类结构,比如 DeepSeek的 NSA、Kimi 的KSA,小米也有面向下一代结构的 HySparse。这些都是区别于 MoE 这一代结构的、面向 Agent 时代去做的模型结构创新。

我为什么觉得结构创新如此重要?其实大家如果真正地去用 OpenClaw,会发现它越用越好用、越用越聪明。其中一个前提是推理的上下文长度。长上下文是一个我们聊了很久的话题,但现在真正有模型能在长上下文下表现很好、性能强劲、推理成本很低吗?

其实很多模型不是做不到 1M 或10M 的上下文,而是因为推理 1M、10M 的成本太贵了、速度太慢了。只有把成本降下来、速度提上去,才能把真正高生产力价值的任务交给模型,才能在这种长上下文下完成更高复杂度的任务,甚至实现模型的自迭代。

所谓模型的自迭代,就是它可以在一个复杂环境里,依靠超长的上下文完成对自我的进化。这种进化可能是对 Agent 框架本身的,也可能是对模型参数本身的——因为我认为上下文本身其实就是对参数的一种进化。所以怎么实现一个长上下文的架构,怎么在推理侧做到长上下文高效推理,是一个全方位的竞争。

除了我刚刚提到的预训练阶段做好 long-context-efficient 的架构——这大概是我们一年前就开始探索的问题。现在真正要做到在长程任务上的稳定性和高上限的效果,是我们在后训练阶段正在迭代的创新范式。

我们在想怎么构造更有效的学习算法,怎么采集到真实环境下、在 1M、10M、100M 上下文里真正具有长期依赖关系的文本,以及结合复杂环境产生的轨迹数据。这是我们后训练正在做的事情。

但更长期来看,由于大模型本身的飞速进步,加上 Agent 框架的加持,就像立雪说的,推理需求在过去一段时间已经有近十倍的增长。那么今年整个 token 用量的增长会不会到 100 倍?

这里边又进入另一个维度的竞争——算力,或者说推理芯片,甚至再往下到能源。所以我觉得,如果大家一起思考这个问题,我可能会从大家身上学到更多。谢谢。

06.Agent 有三大关键模块,多 Agent 爆发将带来冲击

杨植麟:非常有洞察的分享。下面想问一下黄超,你开发过像 Nanobot 这样很有影响力的 Agent 项目,也有很多社区的粉丝。想问你从 Agent的 Harness 或者应用层面来看,接下来有哪些技术方向是你觉得比较重要、值得大家关注的?

黄超:我觉得如果把 Agent 的技术抽象出来,关键就是 Planning、Memory和 Tool Use 这几个模块。

先说 Planning。现在的问题主要是在长程任务或者非常复杂的上下文中,比如 500 步甚至更长的步数,很多模型不一定能做很好的规划。我觉得本质上是模型可能不具备这类隐性知识,尤其是在一些复杂的垂直领域。所以未来可能需要把各种复杂任务的知识固化到模型里,这可能是一个方向。

当然,Skill、Harness 在某种程度上也在缓解 Planning 带来的错误,因为它提供了高质量的 Skill,本质上也是在引导模型去完成一些比较难的任务。

再说 Memory。Memory 给人的感觉是,它好像总是存在信息压缩不准确、检索不准的问题。特别是在长程任务和复杂场景下,Memory 的压力会暴增。现在像 OpenClaw 这类项目,大家用的其实都是最简单的文件系统式的 Markdown 格式的 Memory,通过共享文件来做。未来 Memory 可能会走向分层设计,也需要让它变得更通用。

老实讲,现在的 Memory 机制很难做到通用——因为 Coding 场景、Deep Research 场景、多模态场景,它们的数据模态差别很大,怎么对这些 Memory 做好的检索和索引,同时又保持高效,这永远是一个权衡。

另外,现在 OpenClaw 让大家创建 Agent 的门槛大幅降低之后,未来可能不止一个“龙虾”。我看到 Kimi 也有 Agent Swarm 这样的机制出来,未来每个人可能会有“一群龙虾”。

相比于单个龙虾,一群龙虾带来的上下文暴增是可以想象的,这对 Memory 的压力会非常大。现在其实还没有一套很好的机制去管理这种“一群龙虾”带来的上下文,尤其是对复杂 Coding、科研发现这类场景,不管是模型还是整个 Agent 架构,压力都很大。

再说 Tool Use,也就是 Skill 这块。Skill 现在存在的问题,其实和当初 MCP 的问题类似——MCP 当时有质量不保障、安全风险等问题。现在 Skill 也一样,看似有很多 Skill,但高质量的很少,低质量的 Skill 会影响 Agent 完成任务的准确度。另外还有恶意注入的问题。所以从 Tool Use 来看,可能需要靠社区把整个 Skill 生态做得更好,甚至让 Skill 能在执行过程中自我进化出新的 Skill。

总的来说,从 Planning、Memory到 Tool Use,这些是当下 Agent 存在的一些痛点,也是未来可能的方向。

07.未来 12 个月关键词:生态、可持续 token、自进化与算力

杨植麟:可以看到两位嘉宾从不同视角讨论了一个共同的问题——随着任务复杂度增加,上下文会暴涨。从模型层面可以提升原生上下文长度,从 Agent Harness 层面,像 Planning、Memory、Multi-Agent 这样的机制,也能在特定模型能力下支持更复杂的任务。我觉得这两个方向接下来会产生更多化学反应,进一步提升任务的完成能力。

最后我们来一个开放式的展望。请各位用一个词来描述接下来 12 个月大模型发展的趋势以及你的期望。这次先从黄超开始。

黄超:12 个月在 AI 这个领域看起来好遥远,都不知道 12 个月之后会发展成什么样。

杨植麟:本来这里写的是五年,我改掉了。

黄超:对,哈哈。我想到的一个词是“生态”。现在 OpenClaw 让大家很活跃,但未来 Agent 真的要成为“打工人”,而不只是大家玩一玩、图个新鲜感。未来应该让它真正沉淀下来,成为搬砖的工具、成为真正的 coworker。

这需要整个生态的努力,尤其是开源,把技术探索和模型技术都开源出来之后,需要整个社区一起共建——不管是模型的迭代,还是 Skill 平台的迭代,还有各种工具,都需要更好地面向龙虾去创造生态。

一个比较明显的趋势是,未来的软件还会是给人用的吗?我相信未来很多软件可能都不一定是面向人类的——因为人类需要的是 GUI,而未来可能是面向 Agent 原生的使用。有趣的是,人可能只去用那些让自己快乐的 GUI。而现在整个生态又从 GUI、MCP 转到了 CLI 的模式。这就需要生态把软件系统、数据、各种技术都变成 Agent Native 的形态,这样整个发展才会更加丰富。

罗福莉:把问题缩小到一年,我觉得非常有意义。如果五年的话,从我心目中 AGI 的定义来看,我觉得已经实现了。所以如果用一句话描述接下来一年 AGI 历程里最关键的事情,我认为是“自进化”。

这个词听起来有点玄幻,过去一年大家也多次提到。但我最近对它有更深的体会,或者说对“自进化”怎么做,有了更务实、更可行的方案。原因在于,有了强大的模型之后,我们在 Chat 范式下根本没有发挥出预训练模型的上限,而 Agent 框架把这个上限激活了。当我们让模型执行更长时间的任务时,发现它可以自己去学习和进化。

一个简单的尝试是:在现有的 Agent 框架里给它加上一个可验证的条件限制,再给它设一个 Loop,让模型不停地去迭代优化目标,就会发现它能持续拿出更好的方案。这种自进化现在其实已经能跑一两天了,当然跟任务难度有关。

比如在一些科学研究上,像是探索更好的模型结构,因为模型结构有评估标准,比如更低的 PPL。在这种确定性的任务上,我们发现它已经能自主优化和执行两三天了。

所以从我的角度看,自进化是唯一能“创造新东西”的地方。它不是替代我们现有的人的生产力,而是像顶尖科学家一样,去探索世界上还没有的东西。一年前我会觉得这个时间线要拉到三到五年,但最近我觉得确实应该缩小到一到两年。可能很快我们就能用大模型叠加一个强大的自进化 Agent 框架,实现对科学研究至少指数级的加速。

最近我已经发现,我们组里做大模型研究的同学,他们的 workflow 是高度不确定、高度创造性的,但借助 Claude Code 加上顶尖模型,我们的研究效率已经提升了近十倍。我很期待这种范式辐射到更广泛的学科和领域,所以我觉得“自进化”非常重要。

夏立雪:我的关键词是“可持续 token”。我看到整个 AI 的发展还在一个长期持续的过程中,我们也希望它有长久的生命力。从基础设施的角度看,一个很大的问题是资源终究是有限的。

就像当年讲可持续发展一样,我们作为一个 token 工厂,能否持续、稳定、大规模地提供 token,让顶尖模型真正能为更多的下游服务,是我们看到的一个很重要的问题。

我们需要把视角放宽到整个生态——从能源到算力,再到 token,最终到应用,形成可持续的经济化迭代。我们不仅要把国内的各种算力用起来,也在把这些能力输出到海外,让全球的资源都能打通和整合。

我也觉得“可持续”其实是在把中国特色的 token 经济学做起来。过去我们讲 Made in China,把中国低价的制造能力变成好的商品输出到全球。

现在我们要做的是“AI Made in China”——把中国在能源等方面的优势,通过 token 工厂可持续地转化成优质的 token,输出到全球,成为世界的 token 工厂。这是我今年想要看到的、中国给世界的人工智能带来的价值。

张鹏:我就简短一点。大家都在仰望星空,我就落地一点。我的关键词是“算力”。

刚才也说了,所有技术、智能体框架让大家创造力和效率提升了十倍,但前提是大家能真正用得起来。你不能一个问题提出去,让它思考半天也不给答案,那肯定不行。也因为这样,很多研究的进展、很多想做的事情都会受阻。

前两年我记得有位院士在中关村论坛上说了一句话:“没卡没感情,谈卡伤感情。”我觉得今天又到了这个地步,但情况又不一样了。现在我们进入了推理阶段,需求真的在爆发——十倍、百倍地增长。刚才你说用量涨了十倍,那其实需求可能是一百倍呢?还有大量的需求没被满足,怎么办?我们大家可能一起来想想办法。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

抢莫斯科门票,分5万刀!
广告
|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

深潮TechFlow的精选文章

45分钟前
为什么 AI 交易正加速向期货市场集中
3小时前
SpaceX 上市发令枪还没响,「太空板块」的聪明钱已开始抢跑?
3小时前
代币正在成为新型股票
查看更多

目录

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

相关文章

avatar
avatarOdaily星球日报
21分钟前
从乌托邦叙事到金融基建:加密VC的「祛魅」与转向
avatar
avatarOdaily星球日报
21分钟前
Pharos Network携手Circle,推动构建开放包容的全球RealFi结算体系
avatar
avatarPANews
21分钟前
比特币矿企加速告别挖矿时代,MARA大举卖币砸向AI
avatar
avatar深潮TechFlow
45分钟前
为什么 AI 交易正加速向期货市场集中
avatar
avatarPANews
55分钟前
Perp DEX中场战事:没落者、自救者与后来者
APP下载
Windows
Mac

X

Telegram

Facebook

Reddit

复制链接