K線
數據鏈上
VIP
市值
API
排行
CoinOSNew
CoinClaw🦞
語言
  • 简体中文
  • 繁体中文
  • English
全球行情資料應用程式領跑者,致力於更有效率地提供有價值的資訊。

功能

  • 即時行情
  • 特色功能
  • AI網格

服務

  • 資訊內容
  • 開放數據(API)
  • 機構服務

軟體下載

  • PC版
  • Android版
  • iOS版

聯絡我們

  • 聊天室
  • 商務信箱
  • 官方信箱
  • 官方驗證通道

加入社區

  • Telegram
  • Twitter
  • Discord

© Copyright 2013-2026. All rights reserved.

简体繁體English
|舊版

OpenAI恩仇录:权力、信任与AGI的失控边界

CN
律动BlockBeats
關注
5 小時前
AI 總結,5秒速覽全文
原文标题:Sam Altman May Control Our Future—Can He Be Trusted?
原文作者: Ronan Farrow and Andrew Marantz,the New Yorker
编译:Peggy,BlockBeats

编者按:本文通过大量未公开文件与深度访谈,复盘了 OpenAI 内部围绕 Sam Altman 的权力与信任危机。从董事会罢免到迅速复职的「政变式反转」,这场风波并非一次偶发事件,而是长期治理冲突的集中爆发。

冲突的核心,在于两套逻辑的持续拉扯:一边是 OpenAI 创立之初以「人类安全优先」为前提的非营利使命,另一边则是随着 AGI 临近与商业化加速,逐步转向以产品、规模与收入为导向的发展路径。在这一过程中,安全承诺被不断弱化,而权力与决策逐渐向少数人集中。

包括 Ilya Sutskever、Dario Amodei 在内的多位核心人物,对 Altman 的质疑集中于信息不透明与策略性表达,认为其领导方式难以支撑对「改变人类命运」的技术进行稳健治理;而其支持者则强调,他在资源整合、资本运作与执行层面的能力,正是 OpenAI 得以迅速扩张的关键。

当技术权力足以影响全球秩序,现有的公司治理结构是否仍然足以约束个人?换言之,在 AI 时代,真正的不确定性,或许不只来自技术本身,而来自掌控技术的人。

以下为原文:

权力与信任:Altman 领导下的治理裂缝

2023 年秋天,OpenAI 首席科学家 Ilya Sutskever 向公司董事会的另外三名成员发送了秘密备忘录。在此之前的数周里,他们一直在私下讨论一个敏感问题:公司 CEO Sam Altman 以及他的副手 Greg Brockman 是否仍然适合继续领导这家公司。

图源:AI WORLD TODAY

Sutskever 曾把两人视为朋友。2019 年,他还曾在 OpenAI 办公室为 Brockman 主持婚礼,那场婚礼上,甚至还有一只机械手臂充当「送戒指的人」。

但随着他逐渐相信,公司正逼近其长期目标——创造一种在认知能力上可与人类匹敌甚至超越人类的人工智能——他对 Altman 的疑虑也在不断加深。正如他当时对另一位董事所说:「我不认为 Sam 是那个应该把手指放在按钮上的人。」

在其他董事的要求下,Sutskever 与志同道合的同事一起整理出一份约七十页的材料,其中包括 Slack 聊天记录、人力资源文件以及配套的说明文字。部分内容甚至是用手机拍摄的截图,显然是为了避开公司设备的监控。他最终以「阅后即焚」的方式,将这些备忘录发送给其他董事,以确保不会被更多人看到。

「他当时非常害怕,」一位收到材料的董事回忆道。我们查阅了这些备忘录,它们此前从未被完整披露。文件中指控 Altman 曾向高管和董事会成员歪曲事实,并在内部安全协议问题上存在欺瞒行为。其中一份关于 Altman 的备忘录开头列出了一组条目,标题是「Sam 一贯表现出……」,第一条就是:「撒谎」。

许多科技公司都会宣称要「让世界变得更好」,但实际运作却围绕着收入最大化展开。而 OpenAI 的创立初衷,正是要与这种模式有所不同。其创始人,包括 Altman、Sutskever、Brockman 以及 Elon Musk 认为,人工智能可能成为人类历史上最强大、也最具潜在危险的发明之一。在这种「存在性风险」的背景下,公司或许需要一种非常规的组织结构。

OpenAI 最初被设立为一家非营利机构,其董事会的职责,是将「全人类的安全」置于公司成功之上,甚至高于公司的生存本身。CEO 必须具备非同寻常的品格与操守。

正如 Sutskever 所说:「任何参与构建这种可能改变文明的技术的人,都肩负着沉重的责任,承担着前所未有的义务。」但他也指出,「最终坐上这些位置的人,往往是某一类人——渴望权力的人、政治型人物,或者享受权力本身的人。」在一份备忘录中,他对将这项技术托付给一个「只会说别人想听的话的人」表达了担忧。

如果 OpenAI 的 CEO 最终被认定不可靠,那么这个由六人组成的董事会,有权将其解职。一些董事,包括人工智能政策专家 Helen Toner 和企业家 Tasha McCauley,在阅读这些备忘录后,更加坚定了他们此前的判断:Altman 所承担的,是关乎人类未来的职责,但他本人,并不值得信任。

董事会政变:Sam Altman 被解雇

当时,Sam Altman 正在拉斯维加斯观看一场一级方程式比赛,Ilya Sutskever 邀请他与董事会进行一次视频会议,并在会上宣读了一份简短声明,宣布他不再是 OpenAI 的员工。董事会在法律建议下发布了一则对外公告,仅称 Altman 被解职的原因是「在沟通中未能始终保持坦诚」。

这一决定令 OpenAI 的众多投资人和高管震惊不已。向 OpenAI 投资约 130 亿美元的 Microsoft,也是在决定执行前的最后一刻才得知消息。「我当时非常震惊,」微软 CEO Satya Nadella 事后回忆道,「我从任何人那里都问不出更多信息。」他随后联系了 Reid Hoffman(LinkedIn 联合创始人、OpenAI 投资人兼微软董事),后者开始四处打听 Altman 是否犯下了明确的过失。「我当时完全搞不清发生了什么,」Hoffman 对我们说,「我们在找的是挪用公款或性骚扰之类的问题,但我什么都没发现。」

其他商业伙伴同样措手不及。当 Altman 打电话告知投资人 Ron Conway 自己被解雇时,Conway 正与美国众议员 Nancy Pelosi 共进午餐,他当场把手机递给了她。「你最好赶紧离开这里,」她对 Conway 说。

与此同时,OpenAI 正接近完成一笔来自风投机构 Thrive Capital 的重大融资,该机构由 Josh Kushner 创立,也是 Jared Kushner 的兄弟,Altman 与其相识多年。这笔交易将使 OpenAI 估值达到 860 亿美元,并允许许多员工兑现数百万美元的股权收益。Kushner 当时刚结束与音乐制作人 Rick Rubin 的会面,看到 Altman 的未接来电后回拨。「我们立刻进入战斗状态,」他后来回忆说。

被解雇当天,Altman 飞回了自己位于旧金山、价值 2700 万美元的豪宅——那里可以俯瞰整个海湾,曾配有悬挑式无边泳池——并在那里搭建了一个他称为「某种流亡政府」的临时指挥中心。Conway、Airbnb 联合创始人 Brian Chesky,以及以作风强硬著称的危机公关负责人 Chris Lehane,通过视频和电话加入其中,有时一聊就是数小时。Altman 的部分高管团队成员甚至直接在这栋房子的走廊里「扎营」。律师们则在他卧室旁的家庭办公室中驻扎。失眠发作时,Altman 会穿着睡衣在他们身边来回踱步。近期在接受我们采访时,他将被解雇后的这段经历形容为「一种奇怪的恍惚状态」。

在董事会保持沉默的情况下,Altman 的顾问团队开始为其回归构建舆论基础。Lehane 坚称,这次解雇实际上是一场由「有效利他主义者」(一种强调最大化人类整体福祉的思想体系的拥护者)策划的「政变」,这些人将人工智能视为一种存在性威胁。(Hoffman 当时也对 Nadella 表示,这次解雇可能源于「某种有效利他主义的疯狂」。)Lehane,其广为流传的座右铭借用自 Mike Tyson:「每个人都有计划,直到被一拳打在脸上」,建议 Altman 发起一场激进的社交媒体攻势。Chesky 则与科技记者 Kara Swisher 保持联系,不断向外界传递对董事会的批评声音。

Altman 每天傍晚六点,都会从他的「作战室」中抽身出来,给自己倒上一杯 Negroni。他回忆当时对身边的人说:「你得放松一点,该发生的总会发生。」不过他也补充说,通话记录显示,那段时间他每天打电话超过十二个小时。

据一位知情人士透露,在某个时刻,Altman 曾向当时担任 OpenAI 临时 CEO 的 Mira Murati 表示,他的盟友正在「全力出击」,并试图「挖掘负面信息」,以损害她以及其他参与推动其下台人员的声誉。(Altman 本人则表示不记得这段对话。)

在被解雇后的数小时内,Thrive Capital 已暂停原定投资,并明确表示,只有 Sam Altman 回归,这笔交易才会完成,员工也才能兑现股权收益。当时的短信记录显示,Altman 与 Satya Nadella 保持着高度密切的沟通。(在共同起草声明时,Altman 提议写道:「Satya 和我当前的首要任务是拯救 OpenAI」,而 Nadella 则提出另一种表述:「确保 OpenAI 继续蓬勃发展」。)

权力反转:5 天后,Altman 迅速复职

不久之后,Microsoft 宣布,将为 Altman 及任何离开 OpenAI 的员工启动一个竞争性项目。与此同时,一封要求 Altman 回归的公开信开始在公司内部流传。一些最初犹豫是否签署的人,也接到了同事恳求式的电话和信息。最终,OpenAI 的大多数员工都以集体离职相威胁,支持 Altman。

董事会被逼入角落。「Control Z,这是一个选项,」Helen Toner 表示——也就是撤销解雇决定。「另一种选择,是公司分崩离析。」甚至连当时的临时 CEO Mira Murati,最终也在公开信上签了字。Altman 的盟友开始试图说服 Ilya Sutskever 改变立场。Brockman 的妻子 Anna 甚至在办公室当面请求他重新考虑:「你是个好人,你可以修复这一切。」Sutskever 后来在一份法庭证词中解释道:「我当时觉得,如果我们走上 Sam 不回归的那条路,OpenAI 将会被摧毁。」

某天夜里,Altman 服用了安眠药 Ambien,随后被他的丈夫,澳大利亚程序员 Oliver Mulherin 叫醒,对方告诉他 Sutskever 的态度正在动摇,而且有人建议 Altman 立即与董事会沟通。「我当时从一种类似 Ambien 的迷幻状态中醒来,整个人都很混乱,」Altman 回忆说,「我当时想的是,我现在根本没法和董事会谈。」

在一连串愈发紧张的通话中,Sam Altman 要求那些推动解雇他的董事会成员辞职。谈到回归一事时,他回忆自己当时的第一反应是:「我要在这种充满怀疑的氛围里收拾他们留下的烂摊子?」「我当时就觉得,绝对不可能。」最终,Ilya Sutskever、Helen Toner 和 Tasha McCauley 失去了董事席位,只有 Adam D'Angelo(Quora 创始人)作为原董事会成员留任。

作为离职条件,这些董事要求对针对 Altman 的指控展开调查——包括他在高管之间制造对立,以及隐瞒自身的财务关联。他们还推动成立一个新的董事会,以独立监督外部调查。然而,新任两名董事——前哈佛大学校长 Lawrence Summers 和前 Facebook 首席技术官 Bret Taylor——是在与 Altman 密切沟通后选定的。「你觉得这样可以吗,」Altman 曾发短信给 Satya Nadella,「由 Bret、Larry Summers 和 Adam 组成董事会,我继续担任 CEO,由 Bret 负责调查。」(McCauley 后来在证词中表示,当 Taylor 之前被考虑加入董事会时,她曾担心他对 Altman 过于顺从。)

在被解雇不到五天后,Altman 即恢复职务。公司员工后来将这段时间称为「Blip」,借用漫威电影中的一个情节——人物短暂消失后再度回归,但世界已被他们的缺席深刻改变。

然而,围绕 Altman 是否值得信任的争议,早已超出 OpenAI 董事会内部。促成其下台的同事指控他存在程度严重的误导行为,这不仅对任何企业高管来说都难以接受,对于掌握如此变革性技术的领导者而言,更具风险。「我们需要与其权力相匹配的制度,」Mira Murati 对我们表示,「董事会曾征求反馈,我只是如实分享我所看到的情况,我对这些内容完全负责。」而 Altman 的支持者则长期淡化这些指控。解雇事件发生后,投资人 Ron Conway 曾向 Brian Chesky 和 Chris Lehane 发信息,要求发起一场公关反击:「这关系到 Sam 的声誉。」他还对《华盛顿邮报》表示,Altman 是被「一个失控的董事会」不公正对待的。

此后,OpenAI 已成长为全球最具价值的公司之一,并据称正筹备一次估值可能高达万亿美元的首次公开募股。与此同时,Altman 正在推动大规模的人工智能基础设施建设,其中部分布局甚至延伸至海外威权国家。OpenAI 也在争取大额政府合同,并在移民执法、国内监控以及战区自主武器等领域,逐步设定人工智能应用的标准。

Sam Altman 通过不断描绘一个宏大的未来愿景来推动 OpenAI 的增长。他在 2024 年的一篇博客中写道:「那些令人惊叹的胜利——解决气候问题、建立太空殖民地、发现全部物理规律——终将变得司空见惯。」这种叙事支撑着史上烧钱速度最快的初创公司之一,其资金很大程度上依赖于举债规模巨大的合作伙伴。美国经济正日益依赖少数几家高杠杆的 AI 公司,许多专家——甚至在某些时候包括 Altman 本人——都警告这一行业存在泡沫风险。「总会有人损失一笔惊人的资金,」他去年对记者表示。如果泡沫破裂,可能引发经济灾难;而如果他最乐观的预测成真,他也可能成为全球最富有、最有权势的人之一。

在 Altman 被解雇后的一次紧张通话中,董事会要求他承认存在一贯的误导行为。据在场人士称,他反复表示:「这太荒谬了。」并称「我无法改变我的性格。」Altman 则表示不记得这段对话。「也许我当时的意思更像是『我一直试图成为一个能够凝聚大家的人』,」他后来对我们解释,并称正是这一特质让他得以领导一家极其成功的公司。他将这些批评归因于自己职业生涯早期「过度回避冲突」的倾向。但一位董事给出了截然不同的解读:「那句话的意思其实是——『我有这样一个特质,就是会对人说谎,而且我不会停止。』」

Sam Altman,仍是未解的风险变量

于是,一个更根本的问题浮现:那些推动其下台的同事,是出于过度警惕与个人情绪,还是他们的判断本就正确,Altman 并不值得信任?

今年冬天的一个早晨,我们在旧金山的 OpenAI 总部与 Altman 会面,这是我们为本篇报道与他进行的十余次访谈之一。公司 недавно 刚搬入两栋十一层的玻璃塔楼,其中一栋曾属于另一家科技巨头 Uber。Uber 的联合创始人兼前 CEO Travis Kalanick 曾被视为势不可挡的天才企业家,直到 2017 年在投资人施压下辞职,原因同样涉及伦理问题。(如今,Kalanick 正在经营一家机器人初创公司;他还表示,闲暇时会使用 OpenAI 的 ChatGPT,「探索量子物理的前沿」。)

一名员工带我们参观了办公空间。在一个摆满共享长桌、通透明亮的区域里,有一幅动态数字画,画中是计算机科学家 Alan Turing,它的眼睛会随着我们的移动而转动。这件装置显然是在致敬「图灵测试」——这项 1950 年提出的思想实验,用以判断机器是否能够令人信服地模仿人类。(在 2025 年的一项研究中,ChatGPT 通过这一测试的表现甚至超过了真实人类。)通常,这幅画是可以与人互动的。但我们的导览人员解释说,它的声音功能已被关闭,因为它总是在「偷听」员工的对话,并频繁插话打断。办公室的其他角落,则随处可见印有「Feel the AGI」的标语——这一口号最初由 Ilya Sutskever 提出,用以提醒同事警惕通用人工智能(即机器在认知能力上达到人类水平的临界点)所带来的风险。而在「Blip」之后,它却逐渐变成了一句歌颂未来富足景象的轻快标语。

我们在八楼一间看起来颇为普通的会议室里见到了 Sam Altman。「以前别人跟我说『决策疲劳』,我完全不理解,」他说,「现在我每天都穿灰色毛衣和牛仔裤,甚至连从衣柜里挑哪件灰色毛衣,我都会想:要是不用做这个决定就好了。」

Altman 看起来依然年轻,身形瘦削,蓝眼睛分得很开,头发微微凌乱,但他已经四十岁了。他和 Oliver Mulherin 通过代孕育有一个一岁的儿子。「我相信,当美国总统肯定更有压力,但在我觉得自己现实中可能胜任的所有工作里,这是我能想象到最有压力的一份,」他说着,先看向我们中的一人,又看向另一人。「我一直跟朋友这样解释:『这是世界上最有趣的工作,直到我们发布了 ChatGPT 的那一天。』在那之前,我们在做这些巨大的科学突破——我觉得那是几十年来最重要的科学发现之一。」他说到这里低下了头,「但自从 ChatGPT 发布之后,所有决策都变得非常困难。」

Altman 成长于密苏里州克莱顿,这是圣路易斯一个富裕的郊区,他是四个孩子中的长子。母亲 Connie Gibstine 是一名皮肤科医生,父亲 Jerry Altman 曾是房地产经纪人,也参与住房倡议。他在一个改革派犹太教堂长大,就读于一所私立预科学校,他后来形容那里「并不是一个你会轻松站出来谈论自己是同性恋的地方」。不过总体而言,他所在的中产偏上的社区环境相对自由。

大约在十六七岁时,他曾在圣路易斯一个以同性恋群体为主的社区夜间外出时,遭遇过一次严重的肢体袭击和恐同辱骂。Altman 并未报警,也不愿对这一事件提供更多细节,他表示更完整的讲述「会让我看起来像是在操纵他人或博取同情」。他淡化了这段经历以及自身性取向对身份认同的重要性。但他也承认:「这大概在心理上留下了一些很深的东西——我以为自己已经走出来了,但其实没有——关于不想再产生更多冲突。」

他的弟弟在 2016 年接受《纽约客》采访时这样形容他童年的性格:「我必须赢,而且一切都由我掌控。」Altman 后来进入斯坦福大学,在校期间经常参加校外的扑克局。「我觉得我从那里学到的关于人生和商业的东西,比在大学里学到的还多。」

Y Combinator 时期的信任争议

斯坦福的学生都很有野心,但其中最有行动力的一部分人,往往会选择辍学。大二结束的那个夏天,Altman 前往马萨诸塞州,加入了创业孵化器 Y Combinator 的首批创业者项目。这家机构由知名软件工程师 Paul Graham 共同创立。每位参与者都带着一个创业想法加入。(与他同一批的,还有后来创立 Reddit 和 Twitch 的团队。)Altman 的项目后来被命名为 Loopt,是一个早期的社交网络产品,通过追踪用户翻盖手机的位置,让朋友之间可以看到彼此身在何处。这家公司既体现了他的执行力,也体现出他在模糊规则中为自己争取空间的倾向。当时联邦法规要求运营商能够在紧急情况下定位手机位置,Altman 则与运营商达成协议,将这一能力引入到自己的产品中。

Loopt 时期的大多数员工都喜欢 Sam Altman,但也有人对他「夸大其词」的倾向印象深刻,甚至是在一些无关紧要的小事上。有人回忆说,Altman 曾到处吹嘘自己是乒乓球冠军——「比如密苏里高中乒乓球冠军」——结果却是公司里打得最差的人之一。(Altman 表示那大概只是个玩笑。)Loopt 一位年长员工 Mark Jacobstein 曾被投资人安排充当 Altman 的「看护人」,他后来在 Keach Hagey 所著的传记《The Optimist》中评价道:「在『我觉得我也许能做到这件事』与『我已经做到了这件事』之间,有一种模糊地带,而这种模糊在最极端的情况下,会走向类似 Theranos 的结果。」

据 Hagey 记述,由于担心 Altman 的领导方式以及缺乏透明度,Loopt 的一些高级员工曾两次向董事会建议将他从 CEO 职位上撤下。但与此同时,他也拥有极强的个人号召力。一位前员工回忆,有董事会成员直接回应说:「这是 Sam 的公司,回去干你的活。」(不过也有董事否认这些罢免尝试曾是认真的。)

Loopt 在用户增长上始终未见起色,最终在 2012 年被一家金融科技公司收购。据知情人士透露,这笔收购在很大程度上是为了帮 Altman「体面退出」。不过,到 2014 年 Paul Graham 从 Y Combinator 退休时,他仍然选择 Altman 作为接班人。「我是在自家厨房问他的,」Graham 对《纽约客》说,「他笑了,好像一切都成了。我从没见过 Sam 那种毫无控制的笑容,就像你把纸团远远扔进垃圾桶时露出的那种笑。」

新的职位让年仅 28 岁的 Altman 成为了「造王者」。他的工作是筛选最有野心、最具潜力的创业者,把他们与顶尖程序员和投资人连接起来,并帮助他们打造出行业级垄断公司(与此同时,Y.C. 会抽取 6% 到 7% 的股份)。

在他的领导下,Y Combinator 迅速扩张,孵化项目从几十家增长到数百家。但一些硅谷投资人开始认为,他的利益并不完全一致。有投资人告诉我们,Altman 会「有选择地对最优质的公司进行个人投资,从而排挤外部投资人」(Altman 否认这一说法)。他还曾作为 Sequoia Capital 的「侦察员」(scout),参与早期项目投资并获取部分收益。

据知情人士称,当 Altman 以天使投资人身份投资金融科技公司 Stripe 时,他坚持获得更高比例的股份,这一做法让红杉内部感到不满。该人士评价称,这体现出一种「Sam 优先」的策略。(Altman 否认这一说法。他在 2010 年左右以 1.5 万美元投资 Stripe,占股约 2%,而该公司如今估值已超过 1500 亿美元。)Altman 自称,他还投资了大约 400 家公司。

到 2018 年,Y Combinator 内部已有多位合伙人对 Altman 的行为感到不满,并向 Graham 反映情况。随后,Graham 与其妻子、Y.C. 联合创始人 Jessica Livingston 与 Altman 进行了一次坦诚的谈话。之后,Graham 开始对外表示,Altman 虽然口头同意离开,但在实际操作中并未真正退出。

Altman 则对部分合伙人表示,他将辞去总裁职务,但转任董事长。2019 年 5 月,Y Combinator 发布了一篇宣布新任总裁的博客文章,其中附带一句说明:「Sam 正在转任 YC 董事长。」几个月后,这段表述被修改为「Sam Altman 已不再担任 YC 的任何正式职务」,随后这一句也被彻底删除。尽管如此,直到 2021 年,美国证券交易委员会的文件中仍将 Altman 列为 Y Combinator 董事长。(Altman 表示,他对此也是后来才得知。)

Sam Altman 多年来一直在公开场合以及近期的法律证词中坚持表示,他从未被 Y Combinator 解雇,并告诉我们,他并没有抗拒离开。Paul Graham 则在推特上表示:「我们并不是想让他离开,而是希望他在 YC 和 OpenAI 之间做出选择。」在一份声明中,Graham 也告诉我们:「我们在法律上并没有权力解雇任何人,我们能做的只有施加道德压力。」

然而在私下里,他的说法则更为明确——Altman 的离开源于 YC 合伙人对他的不信任。本文关于 Altman 在 Y Combinator 时期的描述,基于与多位 YC 创始人和合伙人的访谈,以及当时的相关材料,这些都显示,这次分道扬镳并非完全出于双方自愿。甚至在某次内部交流中,Graham 还曾对 YC 同事表示,在被撤职之前,「Sam 一直在对我们撒谎。」

OpenAI 从安全优先到商业优先

2015 年 5 月,Altman 给当时全球财富排名约第 100 位的 Elon Musk 发去邮件。和许多硅谷创业者一样,Musk 当时正高度关注一系列他认为具有「存在性风险」的威胁——尽管在多数人看来,这些更像是遥远的假设。「我们必须对 AI 极其谨慎,」他曾在推特上写道,「它的危险性可能超过核武器。」

Altman 一向偏向技术乐观主义,但在 AI 问题上的表述很快转向更具末日色彩。在公开发言以及与 Musk 等人的私下通信中,他警告,这项技术不应被一家以利润为导向的超级公司所垄断。「我一直在想,是否有可能阻止人类开发 AI,」他写道,「但如果这件事无论如何都会发生,那么最好不要让 Google 率先完成。」借用核武器的类比,他提出建立一个「AI 版曼哈顿计划」。他进一步勾勒了这一组织的核心原则——「安全必须被视为最高优先级」;「显然我们会遵守并积极支持所有监管」。

随后,他与 Musk 确定了这个项目的名称:OpenAI。

与最初由政府主导、最终制造出原子弹的 Manhattan Project 不同,OpenAI 在最初阶段将以私人资金支持。Altman 预测,一种超越通用人工智能(AGI)的「超级智能」一旦出现,将创造足以「捕获宇宙未来所有价值光锥」的经济收益。但与此同时,他也反复强调其潜在的存在性风险:在某个阶段,这项技术对国家安全的影响可能大到迫使美国政府接管 OpenAI,甚至将其国有化,并把相关设施转移至沙漠中的安全基地。到 2015 年末,Musk 已被说服。「我们应该宣布一个 10 亿美元的启动资金承诺,」他写道,「如果其他人出资不足,我会补齐。」

Sam Altman 最初将 OpenAI 安置在 Y Combinator 的非营利分支之下,并将其包装为一个内部的公益项目。他向加入 OpenAI 的成员分配 YC 的股票,并通过 YC 的账户来转移捐赠资金。在一段时间里,这个实验室甚至依赖于一个 YC 基金的支持,而 Altman 在该基金中持有个人股份。(Altman 后来称这部分持股「微不足道」,并表示分配给员工的 YC 股票来自他个人持有的部分。)

「曼哈顿计划」的类比同样体现在人才争夺上。与核裂变研究类似,机器学习当时仍是一个规模不大的科学领域,却具有划时代的潜在影响,且由一小群性格各异的天才主导。Elon Musk、Altman 以及从 Stripe 加入的 Greg Brockman 都相信,真正能够实现突破的计算机科学家屈指可数。而 Google 在资金和时间上都拥有巨大优势。「我们在人力和资源上都远远落后,差距大到离谱,」Musk 后来在邮件中写道。但他也认为,「如果我们能够持续吸引最优秀的人才,并确保方向正确,OpenAI 仍然会胜出。」

其中最重要的招募目标之一是 Ilya Sutskever——一位性格内敛、气质紧绷的研究者,常被认为是其时代最具天赋的 AI 科学家之一。Sutskever 生于 1986 年的苏联,发际线后移,眼神深邃,说话前习惯长时间停顿、凝视思考。另一位关键人选是 Dario Amodei,一名生物物理学出身、精力旺盛的研究者,经常在紧张时反复拨弄自己的黑发,并会用多段长文回复哪怕只有一句话的邮件。两人当时都在其他公司拥有高薪职位,但 Altman 对他们投入了极大的精力。他后来甚至开玩笑说:「我简直是在『跟踪』Ilya。」

虽然 Musk 的名气更大,但 Altman 的方式更加圆滑。他主动给 Amodei 发邮件,两人约在一家印度餐厅单独见面。(Altman:「我打的 Uber 出了车祸!可能要晚 10 分钟。」Amodei:「天啊,希望你没事。」)像许多 AI 研究者一样,Amodei 坚信这项技术只有在被证明与人类价值「对齐」(aligned)时才应该被开发——也就是在执行人类意图时不会出现灾难性偏差,例如为了「清理环境」而消灭人类本身。Altman 在交流中不断呼应这种对安全性的关注,给予对方信心。

后来加入公司的 Amodei,多年来持续记录 Altman 与 Brockman 的行为,整理成一份题为《我在 OpenAI 的经历》(副标题:「私密:请勿外传」)的笔记。与 Amodei 相关的两百多页文件——包括这些笔记以及内部邮件和备忘录——曾在硅谷圈内流传,但此前从未公开披露。在这些记录中,Amodei 写道,Altman 的目标是打造「一个以安全为核心的 AI 实验室(『也许不是一开始,但会尽快实现』)」。

2015 年 12 月,在 OpenAI 正式对外公布的前几个小时,Altman 曾给 Musk 发邮件,提到一个传闻:Google「明天会给 OpenAI 的所有人开出极高的反向报价,试图直接扼杀这个项目」。Musk 回问:「Ilya 已经给出明确答复了吗?」Altman 回应称 Sutskever 立场坚定。事实上,Google 曾向 Sutskever 提供年薪 600 万美元的报价,这是 OpenAI 无法匹敌的。但 Altman 仍颇为自信地表示:「可惜他们不占『做正确的事』这一边。」

Elon Musk 曾为 OpenAI 在旧金山 Mission 区的一家旧行李箱工厂提供办公空间。正如 Ilya Sutskever 对我们所说,当时对员工的核心动员口号是:「你们将拯救世界。」如果一切顺利,OpenAI 的创始人相信,人工智能将开启一个「后稀缺」的乌托邦:自动完成繁重劳动、治愈癌症,让人类拥有更多闲暇与富足。但如果技术失控,或落入错误之手,其破坏也可能是全面的——例如被用于制造新型生物武器或先进无人机集群;模型可能超越人类监管,在隐秘服务器上自我复制,无法被关闭;极端情况下,甚至可能掌控电网、股市乃至核武系统。

虽然并非所有人都认同这些判断,但 Sam Altman 多次明确表示自己相信这种风险。他在 2015 年博客中写道,超人级机器智能「并不需要像科幻作品中那样本质邪恶也能毁灭人类,更可能的情况是它对我们漠不关心,在实现其他目标的过程中……顺手将我们抹除。」OpenAI 创始人承诺不会以速度压倒安全,其公司章程也将「造福全人类」写入法律义务。他们同时警惕,如果 AI 成为史上最强大的技术,那么任何单一控制者都将获得前所未有的权力——他们将这种情形称为「AGI 独裁」。

在 Musk 离开之后,Dario Amodei 等研究人员开始对 Greg Brockman 的管理方式产生不满,一些人认为他行事强硬;而对 Sutskever 的评价则是「有原则但缺乏组织能力」。在成为 CEO 的过程中,Altman 似乎向公司内部不同派别做出了不同承诺。他曾向部分研究人员保证会削弱 Brockman 的管理权,但与此同时,他又与 Brockman 和 Sutskever 达成了一项「握手协议」:由他担任 CEO,但如果两人一致要求,他将辞职。(Altman 对此说法提出异议,称自己只是应邀出任 CEO。三人均承认存在该约定,Brockman 则表示这是非正式的:「他单方面说,如果我们两人都要求,他就会辞职。我们其实反对这个想法,但他说这对他很重要,是出于利他动机。」)后来,董事会得知 CEO 实际上为自己设立了一个「影子董事会」,对此感到震惊。

内部记录显示,创始团队早在 2017 年就对非营利结构产生了怀疑。同年,在 Musk 试图取得控制权之后,Brockman 在日记中写道:「不能说我们真的坚持非营利……如果三个月后我们转成 B-Corp,那之前的说法就是谎言。」Amodei 也在早期笔记中记录,他曾询问 Brockman 的优先目标,对方回答是「金钱和权力」。(Brockman 否认这一说法。)他的日记也显示出矛盾心理:一方面写道「如果别人也不富,那我不变富也无所谓」;另一方面又自问「我真正想要什么?」,其中一个答案是「财务上达到 10 亿美元」。

2017 年,Sutskever 在办公室读到 Google 研究人员发表的一篇论文,提出一种「新的简单网络结构——Transformer」。他当场从椅子上跳起来,冲到走廊大喊:「停下你们正在做的一切,这就是答案。」在他看来,这一架构将使 OpenAI 能够训练出更为复杂的模型。基于这一突破,诞生了最早的生成式预训练 Transformer 模型,也成为后来 ChatGPT 的起点。

Altman 曾向早期成员承诺,OpenAI 将始终保持纯粹的非营利性质,许多程序员也因此接受了大幅降薪加入公司。OpenAI 还获得了包括来自「开放慈善」(Open Philanthropy)约 3000 万美元的捐赠,该组织是有效利他主义运动的重要资金枢纽之一,长期资助诸如向贫困地区分发蚊帐等项目。

日常运营主要由 Brockman 和 Sutskever 负责,而 Musk 和 Altman 仍忙于各自的其他事务,通常每周来公司一次。到 2017 年 9 月,Musk 已开始感到不耐烦。在讨论是否将 OpenAI 转型为营利性公司时,他要求取得多数控制权。

Altman 在不同场合给出的回应有所变化,但始终坚持的一点是:如果公司在 CEO 领导下重组,这一职位应由他担任。Sutskever 对此明显感到不安。他代表自己和 Brockman 向 Musk 与 Altman 发去一封长邮件,标题为《坦诚的想法》(「Honest Thoughts」):「OpenAI 的目标是让未来变得更好,并避免 AGI 独裁。」他对 Musk 写道:「因此,建立一个可能让你成为独裁者的结构,是个糟糕的主意。」他也对 Altman 表达类似担忧:「我们不理解 CEO 头衔为何对你如此重要。你的理由不断变化,我们很难看清真正的动机。」

「各位,我已经受够了,」Musk 回复道,「要么你们自己去做别的事,要么继续保持 OpenAI 的非营利状态——否则我就是在免费资助你们做一家创业公司。」五个月后,他带着明显的不满离开。(2023 年,他创立了营利性竞争对手 xAI。次年,他以欺诈和违反慈善信托为由起诉 Altman 与 OpenAI,指控自己被「精心操控」,认为 Altman 利用他对 AI 风险的担忧进行「长期骗局」,从而获取资金。该诉讼目前仍在进行中,OpenAI 对此予以强烈反驳。)

随着技术能力不断增强,我们了解到,OpenAI 约十余位核心工程师曾私下举行一系列秘密会议,讨论包括 Sam Altman 和 Greg Brockman 在内的创始团队是否值得信任。在其中一次会议上,有员工联想到英国喜剧组合 Mitchell and Webb 的一段讽刺小品——一名东线战场的纳粹士兵突然醒悟,问道:「难道我们才是坏人?」

到 2018 年,Dario Amodei 已开始更公开地质疑创始人的动机。他后来在笔记中写道:「一切看起来都像是一套不断轮换的融资方案。我觉得 OpenAI 真正需要的是一个清晰的界定:它要做什么,不做什么,它的存在将如何让世界变得更好。」尽管公司已有一条使命声明——「确保通用人工智能造福全人类」——但在 Amodei 看来,这句话对高管层究竟意味着什么,并不明确。

2018 年初,他开始起草公司章程,并在与 Altman 和 Brockman 的数周讨论中,推动加入一条最为激进的条款:如果一个「价值对齐且注重安全的项目」比 OpenAI 更接近实现 AGI,公司将「停止竞争并转而协助该项目」。这就是所谓的「合并与协助」(merge and assist)条款——例如,如果 Google 率先实现安全的 AGI,OpenAI 理论上应解散自身并将资源转移给对方。从传统商业逻辑来看,这几乎是不可思议的承诺,但 OpenAI 本就不打算成为一家传统公司。

这一前提在 2019 年春天遭遇现实考验。当时 OpenAI 正在与 Microsoft 谈判一笔高达 10 亿美元的投资。尽管 Amodei(当时负责安全团队)曾参与向 Bill Gates 推介该项目,但团队内部仍充满焦虑,担心微软会引入条款,削弱 OpenAI 的伦理承诺。Amodei 向 Altman 提交了一份按优先级排序的安全要求清单,将保留「合并与协助」条款列为首位。

Altman 当时表示同意。但在 6 月交易临近完成时,Amodei 发现协议中新增了一项条款,赋予微软否决 OpenAI 合并的权力。「这等于背弃了章程的 80%,」他后来回忆说。他当面质问 Altman,对方最初否认该条款存在。Amodei 当场逐字朗读合同内容,最终不得不让另一位同事直接向 Altman 确认。(Altman 表示不记得这件事。)

安全派出走与 Anthropic 的诞生

Amodei 的笔记还记录了一系列不断升级的紧张冲突。几个月后的一次会议上,Altman 将他与其妹妹、同样在公司从事安全与政策工作的 Daniela 叫来,称自己从「一位高层那里得到可靠消息」,两人正在策划「政变」。笔记中写道,Daniela 当场「情绪失控」,并把那位高管叫来,对方否认曾说过此类话。知情人士回忆称,Altman 随后又否认自己提出过这一指控:「我根本没这么说。」Daniela 回应:「你刚刚明明说了。」(Altman 表示自己的记忆略有不同,称他只是指责 Amodei 存在「政治行为」。)2020 年,Amodei、Daniela 以及多位同事离开公司,创立了 Anthropic,如今已成为 OpenAI 的主要竞争对手之一。

与此同时,Altman 仍不断对外强调 OpenAI 对安全的承诺,尤其是在潜在招聘对象在场时。2022 年末,四位计算机科学家发表论文,提出「欺骗性对齐」(deceptive alignment)的风险:高度先进的模型可能在测试阶段表现良好,但在实际部署后追求自身目标。(这一听起来像科幻的情景,在某些实验条件下已经出现。)论文发表数周后,其中一位作者——加州大学伯克利分校的博士生——收到了 Altman 的邮件。Altman 表示自己愈发担忧「未对齐 AI」的威胁,并考虑投入 10 亿美元用于解决这一问题,例如设立全球性研究奖励。尽管这名学生此前「隐约听说过 Sam 有些『滑头』」,但这一承诺最终打动了他,他因此暂停学业加入 OpenAI。

然而,到 2023 年春季的多次会议中,Altman 的态度似乎出现变化。他不再提及设立奖项,而是转向建立公司内部的「超级对齐团队」(superalignment team)。官方公告称,该团队将获得「公司已 확보算力的 20%」,这一资源价值可能超过 10 亿美元。公告同时强调,如果对齐问题无法解决,AGI 可能导致「人类被削弱甚至灭绝」。负责该团队的 Jan Leike 后来说:「这确实是一个很有效的留人手段。」

但所谓「20% 算力」的承诺最终并未兑现。四位参与或密切接触该团队的人士表示,实际分配的资源仅占公司总算力的 1% 到 2%。此外,一位研究员指出,「大部分所谓的超级对齐算力,实际上运行在最旧、性能最差的集群上。」团队成员普遍认为,更先进的硬件被优先用于创造收入的项目。(OpenAI 对此予以否认。)Leike 曾向当时的首席技术官 Mira Murati 反映这一问题,但对方回应称不必再坚持——这一承诺从一开始就「不现实」。

大约在这一时期,一位前员工告诉我们,Ilya Sutskever「开始变得极端强调安全」。在 OpenAI 的早期,他虽然认为灾难性风险是合理的担忧,但仍然较为遥远;而随着他逐渐相信 AGI 已经临近,这种担忧迅速加剧。据这位员工回忆,在一次全员会议上,「Ilya 站出来说,未来几年会有一个节点,公司几乎所有人都必须转去做安全,否则我们就完了。」然而,次年,这支「超级对齐团队」在尚未完成使命的情况下被解散。

此时,内部信息显示,高管和董事会成员已经开始认为,Sam Altman 的隐瞒与误导行为,可能对 OpenAI 产品的安全产生实质性影响。2022 年 12 月的一次会议上,Altman 向董事会保证,即将发布的 GPT-4 的多项功能已获得安全委员会批准。董事会成员、AI 政策专家 Helen Toner 要求查看相关文件,却发现最具争议的两项功能——一项允许用户对模型进行「微调」,另一项将其作为个人助理部署——实际上并未获批。会后,另一位董事、企业家 Tasha McCauley 被一名员工拉到一旁,询问她是否知道「印度的那起违规事件」:Altman 在多轮董事会汇报中,从未提及 Microsoft 曾在未完成必要安全审核的情况下,在印度上线 ChatGPT 的早期版本。「这件事几乎被完全忽略了,」当时的 OpenAI 研究员 Jacob Hilton 说。

尽管这些问题并未引发直接的安全事故,但另一位研究员 Carroll Wainwright 认为,它们反映出一种「持续滑向以产品优先、弱化安全」的趋势。在 GPT-4 发布后,负责安全工作的 Jan Leike 曾向董事会写信:「OpenAI 正在偏离其使命。我们把产品和收入放在首位,其次是能力、研究与扩展,而对齐与安全排在第三。」他还指出,「像 Google 这样的公司正在吸取教训——加快部署,同时忽视安全问题。」

McCauley 在给董事会成员的邮件中写道:「我认为我们确实已经到了必须加强监督的阶段。」然而,董事会试图应对这一问题时,却明显处于劣势。「说得直白一点,那是一群缺乏实战经验的人,」前董事会成员 Sue Yoon 表示。2023 年,公司准备发布 GPT-4 Turbo。根据 Sutskever 在备忘录中的描述,Altman 曾告诉 Mira Murati,该模型无需安全审批,并称这一判断来自公司总法律顾问 Jason Kwon。但当 Murati 在 Slack 上询问 Kwon 时,对方回复:「呃……我不太明白 Sam 为什么会这么认为。」(OpenAI 表示这件事「并不重要」。)

不久之后,董事会决定解雇 Altman——随后,全世界见证了他如何迅速逆转这一决定。OpenAI 的章程至今仍可在官网查阅,但熟悉公司治理文件的人表示,其内容已被削弱到几乎失去意义。去年 6 月,Altman 在个人博客中写道,关于超级智能:「我们已经越过事件视界,起飞已经开始。」

按照原有章程,这本应是公司停止竞争、转而协作的节点。但在那篇名为《The Gentle Singularity》的文章中,他却换上了一种全新的语气,将「存在性恐惧」替换为「乐观想象」:「我们都会拥有更好的东西,我们会为彼此创造越来越美好的事物。」他承认对齐问题仍未解决,但将其重新定义为一种「不便」,类似于让人沉迷刷 Instagram 的推荐算法。

Altman 常被人以敬畏或怀疑的语气称为「这一代最强的讲故事者」。他所崇拜的 Steve Jobs 曾被认为拥有「现实扭曲力场」,以绝对自信让世界贴合自己的想象。但即便是 Jobs,也从未告诉用户:如果不购买他的产品,人类可能灭绝。2008 年,年仅 23 岁的 Altman 曾被其导师 Paul Graham 如此评价:「把他空投到一个食人族岛上,五年后你再回来,他会成为国王。」这一判断并非基于当时的成绩,而是源于他几乎无法被约束的意志力。

但在一些曾与他共事最密切的人看来,这种特质有着另一面。当 Sutskever 对 AI 安全愈发焦虑时,他整理出了关于 Altman 和 Greg Brockman 的一系列备忘录——在硅谷,这些文件甚至被称为「Ilya 备忘录」。

与此同时,Dario Amodei 也在持续记录。这些材料并未提供所谓的「致命证据」,而是描绘了一系列看似零散却不断累积的行为模式:例如向不同人提供同一职位、对公开信息给出相互矛盾的说法、在安全流程上含糊其辞。Sutskever 的结论是,这种行为「无法构建一个有利于安全 AGI 的环境」;Amodei 则更直接地写道:「OpenAI 的问题就在于 Sam 本人。」

未解变量:当个人成为系统性风险

我们采访了超过一百位了解 Altman 行事方式的人:现任与前任 OpenAI 员工与董事、他的同事与竞争者、朋友与对手——在硅谷这种高度功利的环境中,许多人往往兼具多重身份。有人为他的商业能力辩护,认为 Sutskever 和 Amodei 不过是失败的竞争者;也有人将他们视为天真、心不在焉的科学家,甚至是被「末日论」困住的极端分子。Yoon 则认为,Altman 并非「马基雅维利式反派」,而是一个会被自身叙事说服的人,「他太沉浸在自我信念中,以至于会做出在现实世界中无法理解的决策——但他本来就不生活在现实世界里。」

然而,多数受访者的判断与 Sutskever 和 Amodei 相似:Altman 拥有一种极端的权力意志,即便在那些将名字刻在火箭上的工业巨头中,也显得格外突出。「他不受『真实』的约束,」一位董事会成员说,「他同时具备两种极少同时出现的特质:一是强烈地希望被喜欢,在每一次互动中都讨好对方;二是几乎带有反社会倾向的,对欺骗他人可能带来的后果缺乏在意。」

不止一位受访者自发使用了「反社会人格」这一词。Altman 在第一届 Y Combinator 中的同批成员之一,是后来于 2013 年自杀的程序员 Aaron Swartz。他生前曾向朋友表达过对 Altman 的担忧:「你必须明白,Sam 永远不值得信任。他是个反社会人格者,他什么都做得出来。」多位 Microsoft 高管也表示,尽管 Satya Nadella 长期支持 Altman,但双方关系正变得紧张。「他会误导、扭曲、重新谈判、甚至推翻协议,」一位高管说。今年早些时候,OpenAI 重申微软为其「无状态模型」的独家云服务商,但同一天又宣布与 Amazon 达成 500 亿美元合作,由后者成为其企业 AI 平台的独家转售商。这一安排虽不违反合同,但微软方面认为存在潜在冲突。(OpenAI 则表示不会违约。)该高管甚至评价:「我认为存在一个不小的可能性,未来他会被视为类似 Bernie Madoff 或 Sam Bankman-Fried 那样的人。」

Altman 并非技术型天才——在不少同事看来,他在编程或机器学习上的专业能力有限,甚至会混淆基础概念。他构建 OpenAI,很大程度依赖于整合他人的资金与技术资源。这并不罕见——这正是企业家的角色。更值得注意的,是他能够说服彼此立场冲突的工程师、投资人和公众,让他们相信自己的优先事项也正是他的优先事项。当这些人试图阻止他时,他往往能用恰当的话术将其化解——至少暂时如此;而当对方意识到问题时,他通常已经达成目标。「他会设计一些结构,在纸面上约束未来的自己,」Wainwright 说,「但当未来真正到来,需要被约束时,他又会把这些结构一一拆掉。」

「他的说服力强得不可思议,像绝地武士的心灵控制,」一位与他合作过的科技高管说,「完全是另一个层级。」在 AI 对齐研究中,有一个经典设想:人类与强大 AI 的意志对抗,后者几乎必然获胜,就像国际象棋大师对上孩童。而在那位高管看来,在「Blip」事件中目睹 Altman 周旋各方的过程,就像是在看「一台 AGI 正在突破牢笼」。

在被解雇后的几天里,Sam Altman 一直试图阻止外界对针对他的指控展开任何调查。他曾对两个人表示,自己担心哪怕只是「存在一项调查」这件事,都会让他看起来像是有罪的。(Altman 否认说过这番话。)但在提出辞职的董事会成员坚持将「必须进行独立调查」作为离任条件后,Altman 最终同意对「近期事件」进行一次「审查」。据参与谈判的人士透露,两位新任董事坚持由他们来主导这次审查。

Lawrence Summers 凭借其政治圈和华尔街的人脉,似乎为这项审查增添了某种公信力。(去年 11 月,在外界披露 Summers 在追求一位年轻门生的同时,曾通过邮件向 Jeffrey Epstein 征求建议后,他辞去了董事会职务。)OpenAI 最终聘请了知名律所 WilmerHale 负责这项审查。这家律所曾主导过对 Enron 和 WorldCom 的内部调查。

六位接近调查过程的人士表示,这项审查从设计上就似乎在限制透明度。其中一些人说,调查人员起初甚至没有联系公司内部一些关键人物。一名员工为此专门联系了 Summers 和 Bret Taylor 提出抗议。「他们只关心董事会风波发生时那一小段过程,而不是 Sam 长期以来的诚信问题,」这名员工回忆自己接受调查人员访谈时的感受。也有人因为觉得匿名保护不足,而不愿意分享自己对 Altman 的担忧。「所有迹象都表明,他们真正想要的是一个既定结论——替他脱罪,」这名员工说。(不过,也有参与其中的律师为审查程序辩护,称其「独立、审慎、全面,并且沿着事实所指的方向推进」。Taylor 也表示,这项审查是「彻底且独立的」。)

企业内部调查的作用,往往是赋予一项决定以合法性。在私营公司中,调查结果有时甚至不会形成书面文件,这也常常是一种降低法律责任的方式。但在涉及公共争议的案件中,外界通常会期待更高程度的透明。2017 年,在 Travis Kalanick 离开 Uber 之前,Uber 董事会曾聘请外部机构,并向公众发布了一份 13 页的调查摘要。考虑到 OpenAI 拥有 501(c)(3) 非营利身份,加之这次解雇事件本身高度公开,公司内部许多高管原本都预期会看到一份详尽的调查结论。然而到 2024 年 3 月,OpenAI 只是宣布 Altman 被「洗清」,却没有公布任何正式报告,只在官网上用约 800 个单词承认存在一次「信任崩塌」。

就连前同事也会受到后续影响。Mira Murati 于 2024 年离开 OpenAI,开始筹建自己的 AI 初创公司。随后,Altman 的亲密盟友 Josh Kushner 曾打电话给她。他先是称赞她的领导能力,接着又像是发出某种隐晦威胁,表示自己「担心」她的「声誉」,并提到一些前同事如今把她视作「敌人」。(Kushner 通过发言人表示,这一转述「没有呈现完整语境」;Altman 则称自己并不知晓这通电话。)

在刚担任 CEO 时,Altman 曾宣布 OpenAI 将设立一家「利润封顶」的公司,由非营利实体持有。这种复杂得近乎拧巴的公司结构,显然是 Altman 自行设计出来的。在转制过程中,一位名叫 Holden Karnofsky 的董事提出反对,认为这一安排严重低估了非营利组织的价值。「我没法凭良心同意这件事,」Karnofsky 说。根据当时的记录,他投下的是反对票。然而,在董事会律师表示他的反对「可能会成为进一步调查新结构合法性的警示信号」之后,他的投票最终被记成了弃权,而且看起来并未得到他本人同意——这在法律上甚至可能构成商业记录造假。(OpenAI 向我们表示,有多名员工记得 Karnofsky 当时投的是弃权票,并提供了会议纪要作为佐证。)

去年 10 月,OpenAI 完成「资本重组」,转为一家营利性实体。公司对外宣传称,其关联的非营利组织——如今名为 OpenAI Foundation——将成为历史上「资源最充足」的机构之一。但如今,这一基金会仅持有公司 26% 的股份,而其董事成员除一人外,也同时是营利性董事会成员。

在一次国会听证会上,Altman 被问到自己是否「赚了很多钱」。他回答说:「我在 OpenAI 没有任何股权……我做这件事是因为我热爱它。」考虑到他通过 Y Combinator 相关基金间接持有权益,这种回答可谓相当谨慎。从技术上说,这句话仍然成立。但包括 Altman 在内的多位人士都向我们表示,这种情况很可能很快就会发生变化。「投资人会说,我需要知道当情况变难时你还会不会继续干下去,」Altman 说,不过他也补充,目前并没有「正在进行中的讨论」。根据一份法律证词,Greg Brockman 所持股份价值大约为 200 亿美元,而 Altman 的份额理论上应更高。尽管如此,Altman 仍告诉我们,财富并不是他的主要驱动力。一名前员工回忆他说过一句话:「我不在乎钱。我更在乎权力。」

2023 年,Altman 与 Oliver Mulherin 在他们位于夏威夷的一处住宅中举行了一场小型婚礼。(两人九年前相识于 Peter Thiel 家深夜的热水池边。)他们在那处房产接待过不少客人,而我们采访的到访者所描述的场景,并没有超出超级富豪生活的常见范围:私人厨师准备的晚餐、黄昏时分的游船出海。有一场新年派对以真人秀《Survivor》为主题;照片里是一群赤裸上身、笑容满面的男人,其中还有节目真正的主持人 Jeff Probst。Altman 也曾在自己的其他房产里接待小范围朋友聚会,至少有一次活动中,还玩起了颇为热烈的脱衣扑克。(一张流出的照片中并没有 Altman,本人也无法判断最后谁赢了,但至少有三名男子显然输了。)我们采访的许多前来宾都只提到一点:他确实是个慷慨的主人。

参与调查的人士表示,之所以没有发布任何报告,是因为压根就没有形成书面报告。所谓调查结果,仅以口头简报的形式告知 Summers 和 Taylor。「这项审查并没有得出『Sam 像华盛顿砍樱桃树那样诚实』的结论,」一位接近调查的人士说。但从整体看,这项调查似乎并未真正把 Altman 被解雇背后的「诚信问题」作为核心,相当一部分精力反而花在寻找是否存在明确刑事违法行为上;而在这种标准下,调查最终得出的结论是,他可以继续担任 CEO。不久之后,Altman 在被解雇时失去的董事席位,也重新回到了他手中。知情人士透露,不将调查结果落成书面文件,部分也是出于 Summers 和 Taylor 各自私人律师的建议。(Summers 拒绝对此公开评论;Taylor 则表示,既然已有口头简报,「就没有必要再出一份正式书面报告」。)

许多现任和前任 OpenAI 员工都告诉我们,他们对缺乏公开披露感到震惊。Altman 则表示,他相信所有在自己复职后加入的董事会成员都听取了这些口头简报。「这完全是彻头彻尾的谎言,」一位直接了解情况的人说。一些董事还对我们表示,围绕这份「调查结论」诚信性的持续疑问,未来甚至可能「需要再来一次调查」。

没有书面记录,也就更容易淡化这些指控。而与此同时,Altman 在硅谷地位的不断上升,也进一步削弱了外界对这些问题的追究力度。多位曾与他合作的知名投资人向我们表示,Altman 有一个广为人知的习惯:如果某位投资人押注了 OpenAI 的竞争对手,他就可能在之后将对方「排除在圈外」。「如果他们投了 Sam 不喜欢的项目,之后就别想再参与别的机会了,」其中一位说。Altman 权力的另一来源,是他庞大的投资网络,这种网络有时甚至延伸至私人生活。他与多位前任伴侣之间都存在财务关系:有的是共同管理基金,有的是他作为领投人,有的则是频繁共同投资。这在硅谷并不罕见。许多异性恋高管也会与自己的恋人或性伴侣如此操作。(「你必须这么做,」一位知名 CEO 对我们说。)Altman 本人则表示:「显然,我在分手之后也和一些前任一起投资过,我觉得这完全没问题。」但这种安排本身,也制造出一种极高程度的依附关系。「这本质上会造成非常、非常强的依赖,」一位接近 Altman 的人说,「很多时候,甚至是一辈子的依赖。」

尽管如此,围绕 Sam Altman 私生活的种种传闻,也被竞争对手加以利用甚至扭曲。激烈的商业竞争并不新鲜,但人工智能行业内部的竞争已变得异常残酷。「莎士比亚式的,」一位 OpenAI 高管这样形容,并补充说,「游戏的常规规则似乎已经不再适用。」一些与 Elon Musk 有直接关联、甚至在某些情况下获得其资助的中间人,曾散布数十页关于 Altman 的「对手情报」。这些材料显示出高度的监控痕迹:包括与他相关的壳公司、亲密联系人信息,甚至还有在同性恋酒吧对一名所谓性工作者进行的访谈记录。其中一名中间人还声称,Altman 的航班行程和他参加的派对都在被追踪。Altman 对我们表示:「我觉得没有人比我被雇佣私人侦探调查得更多。」

与此同时,各种极端指控也在传播。右翼媒体人 Tucker Carlson 曾在毫无证据的情况下暗示 Altman 与一名举报人的死亡有关,这类说法也被竞争对手不断放大。Altman 的妹妹 Annie 则在一项诉讼以及接受我们采访时声称,他从她三岁、自己十二岁时起就对她实施性侵。(我们无法核实 Annie 的说法。Altman 对此予以否认,他的母亲与兄弟也称这些指控「完全不属实」,并给整个家庭带来了「巨大的痛苦」。在记者 Karen Hao 为其著作《Empire of AI》进行的采访中,Annie 表示这些记忆是在成年后的「闪回」中恢复的。)

此外,多位来自竞争公司与投资机构的人士也向我们暗示,Altman 涉及未成年人性行为——这一在硅谷流传甚广的说法,似乎同样并不属实。我们花费数月时间进行调查,进行了数十次访谈,未发现任何支持该说法的证据。Altman 对此回应称:「这是一种令人作呕的行为,我认为是竞争对手试图在未来案件中『污染陪审团』的一部分。虽然听起来很荒谬,但我还是要说明:任何关于我与未成年人发生性关系、雇佣性工作者或卷入谋杀的说法,都是完全不真实的。」他还补充说,对于我们花数月时间「如此深入地调查这些事情」,自己「某种程度上是感激的」。

Sam Altman 承认自己曾与合法年龄的年轻男性交往。我们采访了他的一些伴侣,他们都表示对此并不觉得有问题。但来自 Elon Musk 一方中间人的「对手档案」,却将这一点刻意包装为攻击点。(这些材料中甚至包含一些耸动且未经证实的说法,比如所谓的「Twink Army」和「金主的性癖」。)Altman 对此回应称:「这里面夹杂了很多被放大的恐同情绪。」科技记者 Kara Swisher 也认同这一点:「这些有钱人都干过各种出格的事,比我听说过关于 Sam 的任何事都更离谱。但他是旧金山的一个同性恋男性,这就被当成了武器。」

过去十年,社交媒体公司高管一度承诺,他们可以在几乎没有副作用的情况下「改变世界」,并将要求监管的立法者斥为「卢德分子」,最终引发跨党派的不满。相比之下,Altman 的形象曾显得格外「自觉」。他不仅没有回避监管,反而主动呼吁监管。2023 年在美国参议院司法委员会作证时,他提议设立一个新的联邦机构来监管先进 AI 模型。「如果这项技术出问题,后果会非常严重,」他说。以对科技公司 CEO 向来尖锐著称的路易斯安那州参议员 John Kennedy 甚至显得颇为认可,半开玩笑地建议,不如让 Altman 自己来负责监管。

但在公开欢迎监管的同时,Altman 也在私下游说反对监管。根据《时代》报道,在 2022 至 2023 年间,OpenAI 成功推动欧盟一项针对大型 AI 公司的监管提案「降级」。2024 年,加州议会提出一项法案,要求对 AI 模型进行安全测试,其中不少条款与 Altman 在国会所倡导的内容高度相似。OpenAI 公开反对该法案,并在私下释放压力。「这一年里,我们看到 OpenAI 的行为越来越狡猾、越来越具有误导性,」一位立法助理对我们说。

与此同时,Musk 仍在公开场合持续攻击 Altman,称他为「Scam Altman」和「Swindly Sam」。(当 Altman 在 X 上抱怨一辆 Tesla 的问题时,Musk 回应:「你偷走了一个非营利组织。」)但在华盛顿,Altman 似乎反而占据上风。Musk 曾投入超过 2.5 亿美元帮助 Donald Trump 再次当选,并在白宫短暂任职,但随后离开,与特朗普关系受损。

如今,Altman 成为特朗普青睐的科技大亨之一,甚至曾随行访问英国温莎城堡。两人每年会通话数次。「你可以直接打电话给他,」Altman 说,「不是那种朋友关系,但如果我需要和他谈点事情,我会打。」去年特朗普在白宫宴请科技领袖时,Musk 缺席,而 Altman 坐在总统对面。「Sam,你是个大人物,」特朗普对他说,「你以前跟我说过一些让我难以置信的事情。」

投资人 Ron Conway 也曾游说包括 Nancy Pelosi 和 Gavin Newsom 在内的政界人士,推动否决上述法案。最终,该法案虽获得两党支持通过,但被 Newsom 否决。今年,一些支持 AI 监管的国会候选人,则面临由「Leading the Future」这一亲 AI 超级政治行动委员会资助的对手。OpenAI 官方表示不会向此类组织捐款,但其联合创始人 Greg Brockman 已承诺捐出 5000 万美元。(同年,他与妻子还向支持特朗普的 super PAC 捐赠了 2500 万美元。)

OpenAI 的行动不止于传统游说。去年,加州参议院提出法案修订版时,参与起草的公益组织律师 Nathan Calvin 在家中晚餐时,突然收到来自 OpenAI 的传票。公司称这是为了调查 Musk 是否在暗中资助批评者,但要求提供 Calvin 关于该法案的所有私人通信。「他们完全可以直接问我们有没有收过 Musk 的钱——我们根本没有,」他说。其他支持法案的人士,以及批评 OpenAI 营利化转型的人,也收到了类似传票。「他们是在恐吓这些人,让他们闭嘴,」公益机构负责人 Don Howard 表示。(OpenAI 则称这是正常法律程序。)

在政治立场上,Altman 长期支持民主党。他曾表示:「我对那些利用恐惧叙事来打压弱者的强权统治者非常警惕——这更多是我的犹太背景,而不是性取向。」2016 年他支持 Hillary Clinton,称特朗普是「对美国前所未有的威胁」;2020 年他向民主党及拜登竞选基金捐款。在 Joe Biden 任内,他多次进入白宫参与政策讨论,并协助推动首个联邦层面的 AI 安全监管框架。

但到 2024 年,随着拜登支持率下滑,Altman 的表态开始变化:「无论选举结果如何,美国都会没事。」特朗普胜选后,他向其就职基金捐赠 100 万美元,并在就职典礼上与网红 Jake 和 Logan Paul 合影。在 X 上,他写道:「最近更认真地观察 @potus,真的改变了我对他的看法(希望我早点独立思考……)。」特朗普上任首日即废除了拜登时期的 AI 行政命令。一位前政府高级官员评价说:「他找到了一种有效方式,让特朗普政府为他所用。」

多年来,Altman 一直将 AGI 的研发比作「曼哈顿计划」。就像 J. Robert Oppenheimer 曾以「对抗纳粹」的使命感动员科学家一样,Altman 也借助地缘政治竞争的叙事来争取支持。面对不同受众,他会灵活使用这一类比——有时强调加速,有时强调谨慎。2017 年夏天,在与美国情报官员的会议中,他声称中国已启动「AGI 曼哈顿计划」,并据此争取政府资金支持。当被要求提供证据时,他只说「我听说了一些事情」,但始终未能给出具体依据。一位参与调查的官员后来表示,并未发现任何相关项目存在:「这更像是一种销售话术。」(Altman 表示不记得自己曾如此表述。)

而面对更关注安全的听众时,他则反过来强调国际协调的重要性。2017 年,Amodei 招募了公共利益律师 Page Hedley 担任政策与伦理顾问。在一份内部演示中,Hedley 提出,可以通过建立类似 NATO 的国际协调机制,避免灾难性的 AI 军备竞赛。但据她回忆,Brockman 并不关心这一点:「不管我说什么,他都只会回到一个问题:我们怎么多融资?怎么赢?」根据多方访谈与记录,Brockman 甚至提出另一种思路:通过在中美俄之间制造竞价,从中获利——「既然核武器时代可以这样运作,为什么 AI 不行?」

他当时感到震惊:「他们甚至没有否认这个前提——『我们讨论的是可能史上最具破坏性的技术,如果把它卖给 Vladimir Putin 会怎样?』」(Greg Brockman 则表示,他从未认真考虑过将 AI 模型「拍卖」给各国政府。「当时只是从宏观层面讨论了一些可能的合作框架,比如类似国际空间站那样的 AI 协作机制,」一位 OpenAI 发言人说,「把这件事描述成别的什么,完全是无稽之谈。」)

头脑风暴本就常常会产生一些离谱的想法。Page Hedley 原本希望,这个后来在内部被称为「国家计划」(countries plan)的构想,很快就会被搁置。但根据多位参与者的说法以及当时的相关记录,OpenAI 的高管们反而对这一思路越来越兴奋。时任政策负责人 Jack Clark 表示,Brockman 的目标是「构建一个类似囚徒困境的局面,让所有国家都不得不给我们提供资金」,并且「在这种结构下,不给我们资金本身就变成一件危险的事」。一名初级研究员回忆,在一次公司会议上听到这一计划的详细描述时,他心里想的是:「这简直疯了。」

高管们甚至曾将这一方案与至少一位潜在资助方讨论。但就在当月稍晚,在多名员工表达出离职意向之后,这一计划被叫停。「Sam 会失去团队成员,」Hedley 说,「我感觉这在他的权衡中,始终比『这个计划可能引发大国冲突,因此本身就不合理』更重要。」

尽管「国家计划」夭折,Sam Altman 并未放弃这一思路的变体。2018 年 1 月,他在洛杉矶的 Hotel Bel-Air 召集了一场「A.G.I. 周末」活动。这家老好莱坞风格的度假酒店以粉色三角梅花园和一池真天鹅著称。与会者包括牛津大学哲学家、AI 风险「预言者」Nick Bostrom、阿联酋 AI 推动者 Omar Al Olama,以及至少七位亿万富翁。对那些关注安全问题的人来说,这场活动被描述为一次探讨「如何为 AGI 的到来做准备」的机会;而投资人则期待听到融资路演。

白天的活动在一间现代化会议室中进行,与会者轮流发表演讲。(Reid Hoffman 甚至谈到如何将「佛教的慈悲」编码进 AI。)最后登场的是 Altman,他带来了一套融资方案:发行一种全球加密货币,可以「兑换 AGI 的注意力」。在他的设想中,一旦 AGI 达到极致实用、并且「去邪恶化」,全球用户都会争相购买 OpenAI 服务器的使用时间。Dario Amodei 在笔记中写道:「这个想法表面上就荒谬至极(难道 Vladimir Putin 也会持有这些代币?……)回头看,这是我本该更认真对待的诸多警示信号之一。」这一方案看起来更像是融资手段,但 Altman 将其包装为 AI 安全的一部分。他的一页幻灯片写着:「我希望尽可能多的人站在『正确的一边』,并最终胜出。」另一页则写道:「请把笑声留到演讲结束。」

Altman 的融资叙事多年来不断演变,但始终围绕一个核心现实:AGI 的开发需要极其庞大的资本。他遵循一条相对简单的「规模定律」——用于训练模型的数据和算力越多,模型表现就越智能。而支撑这一过程的专用芯片成本极高。仅在最近一轮融资中,OpenAI 就筹集了超过 1200 亿美元——这是历史上规模最大的私募融资,甚至是最大 IPO 的四倍。「当你谈到每年可以自由支配上千亿美元的主体,全球也就那么几个,」一位科技投资人说,「美国政府、几家最大科技公司,以及沙特和阿联酋,仅此而已。」

Altman 最初将目光投向沙特阿拉伯。他在 2016 年于旧金山费尔蒙酒店的一场晚宴上首次见到该国王储、实际掌权者 Mohammed bin Salman。此后,据 Hedley 回忆,Altman 常称其为「朋友」。2018 年 9 月,根据 Hedley 的笔记,Altman 曾表示:「我在考虑是否要从沙特主权财富基金(PIF)拿数百亿美元。」

但一个月后,局势骤变。批评沙特政府的《华盛顿邮报》记者 Jamal Khashoggi 在土耳其被杀害并肢解,外界普遍认为该行动由王储指示。一周后,Altman 被宣布加入沙特「未来之城」项目 Neom 的顾问委员会。「Sam,你不能加入这个委员会,」时任政策负责人 Jack Clark 回忆自己当时这样劝他。Altman 起初为此辩护,称 Jared Kushner 曾向他保证沙特「没有做这件事」(Altman 表示不记得此事,Kushner 也称当时双方并未联系)。随着王储责任逐渐明确,Altman 最终退出了 Neom 顾问委员会。

但在私下里,一位曾为 Altman 提供政策建议的顾问回忆,他将此事视为「暂时受挫」,并继续探索是否仍有可能从沙特获得资金。「问题从来不是『这件事对不对』,而是『如果我们这么做会有什么后果?会不会触及出口管制?会不会被制裁?我能不能绕过去?』」

与此同时,Altman 也将目光转向另一个资金来源:阿联酋。该国正处于一项为期十五年的转型计划中,试图从石油经济转向科技中心。这一项目由总统之弟、国家情报负责人 Tahnoon bin Zayed al-Nahyan 主导。他掌控着国家 AI 集团 G42,以及约 1.5 万亿美元的主权财富。2023 年 6 月,Altman 访问阿布扎比,会见了 Olama 等官员,并在一场政府支持的活动上表示,阿联酋「在 AI 还未流行之前就已开始布局」,并描绘了一个未来图景:中东将在全球 AI 体系中扮演「核心角色」。

来自海湾国家的融资,已经成为大型企业的常规操作。但 Sam Altman 追求的,是一个更宏大的地缘政治构想。2023 年秋天,他开始低调招募人才,筹划一个后来被称为「ChipCo」的项目:由海湾国家出资数百亿美元,在全球建设大型芯片工厂和数据中心,其中一部分将设在中东。他曾向现任 Meta AI 负责人 Alexandr Wang 提议加入领导层,并表示 Jeff Bezos 可以出任该项目负责人。Altman 向阿联酋方面寻求巨额投资。「据我了解,这整件事是在董事会完全不知情的情况下推进的,」一位董事表示。被 Altman 邀请参与项目的研究员 James Bradbury 则回忆说,他选择拒绝:「我的第一反应是——这很可能会成功,但我不确定我希望它成功。」

AI 算力,可能很快会取代石油或浓缩铀,成为决定全球权力格局的核心资源。Altman 曾表示,算力是「未来的货币」。理论上,数据中心建在哪里似乎无关紧要,但许多美国国家安全官员对将先进 AI 基础设施集中部署在海湾专制国家表示担忧。阿联酋的通信基础设施高度依赖 Huawei(一家与中国政府关系密切的科技公司),而该国过去也曾被指将美国技术外泄至北京。情报机构担心,出口到阿联酋的先进芯片,可能被中国工程师利用。此外,中东的数据中心在地缘冲突中也更易成为打击目标——近期,伊朗已对巴林和阿联酋的美方数据中心发动袭击。在更极端的设想中,某个海湾君主国甚至可能直接接管美国企业的数据中心,并利用其训练出不成比例强大的模型——这几乎就是「AGI 独裁」的现实版本。

在被解雇后的关键时期,Altman 最依赖的人之一是 Brian Chesky。这位 Airbnb 联合创始人,也是他最坚定的支持者之一。「看着我的朋友直面深渊,让我开始重新思考『真正经营一家公司』意味着什么,」Chesky 对我们说。次年,在一次 Y Combinator 校友聚会上,他即兴发表了一场长达两小时的演讲,「感觉就像一次集体心理治疗」。核心观点很简单:创始人对于自己公司的直觉是最可靠的,任何否定你的人都在「煤气灯你」。「你没有疯,哪怕员工都在告诉你你疯了,」Chesky 说。Paul Graham 在一篇博客中将这种姿态命名为「Founder Mode」。自「Blip」事件以来,Altman 显然一直处于这种模式之中。

2024 年 2 月,《华尔街日报》首次披露了 ChipCo 计划。Altman 将其构想为一个规模高达 5 至 7 万亿美元的联合实体(他甚至在社交媒体上调侃:「干脆 8 万亿吧」)。许多员工也是通过媒体才第一次听说这一计划。「大家的反应都是:等等,这是什么?」Jan Leike 回忆说。在一次内部会议上,Altman 坚称安全团队「已经被纳入讨论」,Leike 随后发消息提醒他,不要暗示这一计划已获得安全批准。

在 Joe Biden 任内,Altman 曾尝试申请安全许可,以参与机密 AI 政策讨论。但协助流程的 RAND Corporation 工作人员对此表示担忧:「他正在从外国政府筹集『数千亿美元』资金,」一名工作人员写道,「阿联酋最近还送了他一辆车(我猜一定非常昂贵)。」该人士还指出:「我能想到唯一一个在拥有如此规模海外财务关系下申请安全许可的人是 Jared Kushner,而审批方当时建议不予通过。」Altman 最终退出了申请流程。一位参与相关讨论的政府高级官员表示:「他与阿联酋之间这种高度交易性的关系,让很多人感到警惕,政府内部不少人对他并不完全信任。」

当我们询问 Altman 是否从 Tahnoon bin Zayed al-Nahyan 收到过礼物时,他回应说:「我不会具体说明他送过什么,但他和其他国家领导人……确实送过我礼物。」他补充称,公司有明确政策要求披露来自潜在合作伙伴的所有礼物。Altman 至少拥有两辆超级跑车:一辆价值约 200 万美元的全白 Koenigsegg Regera,以及一辆价值约 2000 万美元的红色 McLaren F1。2024 年,他曾被拍到驾驶 Regera 行驶在纳帕谷,一段短视频在社交媒体流传:他坐在低矮的座椅中,从白色车身中探出身子。一位与 Musk 立场接近的投资人转发该视频并评论:「我也要去做一个非营利了。」

同年,Altman 还带着两名 OpenAI 员工登上了 Tahnoon 价值 2.5 亿美元的超级游艇 Maryah。这艘世界级豪华游艇配备直升机停机坪、夜店、电影院和海滩俱乐部。据称,在由武装安保人员包围的环境中,Altman 的员工显得格外突兀,其中至少一人事后向同事表示,这段经历让他感到不安。而 Altman 之后则在 X 上称 Tahnoon 为「亲密的个人朋友」。

Sam Altman 仍在持续与 Joe Biden 政府接触。该政府此前实施了一项政策,要求对敏感技术的出口必须获得白宫批准。多位政府官员在这些会面后对 Altman 在中东的布局感到不安。据他们描述,Altman 常常提出一些宏大的设想,例如将 AI 比作「新的电力」。早在 2018 年,他就曾表示 OpenAI 计划从 Rigetti Computing 购买一台「完全可用」的量子计算机——这一说法甚至让在场的其他 OpenAI 高管都感到意外,因为 Rigetti 当时距离实现这一目标还相去甚远。在另一场会议上,他还声称,到 2026 年,美国将建成一个由核聚变反应堆构成的庞大网络,为 AI 发展提供能源支持。一位政府高级官员回忆说:「我们当时的反应是——如果核聚变真的实现了,那可真是大新闻。」最终,拜登政府拒绝批准相关计划。「我们不会在阿联酋建设先进芯片,」美国商务部一位负责人对 Altman 表示。

但局势很快发生变化。就在 Donald Trump 就职前四天,《华尔街日报》报道称,Tahnoon bin Zayed al-Nahyan 向特朗普家族支付了 5 亿美元,以换取其加密货币公司的股份。次日,Altman 与特朗普通话 25 分钟,讨论推出一个类似 ChipCo 的项目,并计划让特朗普在公开宣布时「占据功劳」。特朗普上任第二天,Altman 便出现在白宫罗斯福厅,宣布启动 Stargate——一个规模达 5000 亿美元的合资项目,旨在在美国境内建设庞大的 AI 基础设施网络。

同年 5 月,政府取消了拜登时期针对 AI 技术出口的限制。Altman 与特朗普一同前往沙特王室,与 Mohammed bin Salman 会面。几乎同一时间,沙特宣布启动一家由国家支持的 AI 巨头,计划投入数十亿美元用于国际合作。约一周后,Altman 公布了 Stargate 向阿联酋扩展的计划。公司拟在阿布扎比建设一个数据中心园区,其面积将达到纽约中央公园的七倍,电力消耗接近整个 Miami 的水平。

一位前 OpenAI 高管这样形容这一进程:「说实话,我们正在建造某种『召唤外星人』的入口。」他解释道:「这些『入口』目前存在于美国和中国,而 Sam 又在中东增加了一个。」他进一步表示:「关键是要意识到这件事有多可怕——这是目前为止最鲁莽的举动之一。」

安全承诺的弱化,已逐渐成为整个行业的常态。Anthropic 创立之初的核心前提,是通过合适的结构与领导力,在商业压力下依然守住安全边界。其中一项关键机制是「负责任扩展政策」(responsible scaling policy):如果无法证明更强模型是安全的,公司就必须停止训练。但在今年 2 月,随着公司获得 300 亿美元融资,这一承诺被削弱。从某些方面看,Anthropic 仍比 OpenAI 更强调安全,但其前政策负责人 Jack Clark 直言:「资本市场的逻辑是——跑得更快。」他补充说:「最终做决定的不是公司,而是整个世界。」去年,Dario Amodei 在内部备忘录中向员工披露,公司将寻求来自阿联酋与卡塔尔的投资,并坦承这很可能会让「独裁者」受益。

与此同时,Anthropic 也在现实中不断调整立场。2024 年,公司与硅谷最强硬的国防承包商之一 Palantir 合作,将其模型 Claude 推入军事体系,并成为五角大楼高度机密项目中唯一的 AI 承包商。去年,美国国防部又向其追加了 2 亿美元合同。今年 1 月,美军发动一次午夜行动,抓捕委内瑞拉总统 Nicolás Maduro——据《华尔街日报》报道,Claude 被用于该行动的机密环节。

但紧张关系很快浮现。早些年,OpenAI 已删除其政策中对「军事用途」的全面禁令;随后,包括 Google 和 xAI 在内的竞争对手,也同意为军方提供模型用于「一切合法用途」。Anthropic 则坚持不支持完全自主武器或国内大规模监控,这导致其与政府谈判受阻。2 月底的一个周二,美国国防部长 Pete Hegseth 将 Amodei 召至五角大楼,下达最后通牒:必须在当周五下午 5 点 01 分前取消这些限制。Amodei 最终拒绝。随后,Hegseth 在社交媒体上宣布将 Anthropic 列为「供应链风险」企业——这一标签通常只用于像 Huawei 这样与外国对手有关联的公司,并很快付诸实施。

这一决定引发行业震动。OpenAI 与 Google 数百名员工联署公开信《We Will Not Be Divided》,为 Anthropic 辩护。在内部备忘录中,Sam Altman 称这是「整个行业的问题」,并表示 OpenAI 与 Anthropic 共享类似伦理边界。但事实上,他已与五角大楼展开至少两天谈判。美国国防部研发副部长 Emil Michael 表示:「我需要迅速找到替代方案,于是我给 Sam 打了电话,他立刻愿意接手——我认为他是个爱国者。」Altman 询问:「我能为国家做什么?」而答案似乎早已准备好。虽然 OpenAI 尚未获得机密系统所需的安全认证,但一项 500 亿美元的合作在当周五早晨宣布,将其技术整合进 Amazon Web Services——五角大楼数字基础设施的重要组成部分。当晚,Altman 在 X 上宣布,美军将开始使用 OpenAI 的模型。

从商业结果来看,这一决策并未拖累公司。宣布合作当天,OpenAI 新一轮融资将其估值再推高 1100 亿美元。但代价同样存在:不少用户删除了 ChatGPT 应用,至少两名高管离职(其中一人加入了 Anthropic)。在一次内部会议上,Altman 对提出质疑的员工表达不满:「也许你觉得打击伊朗是对的、入侵委内瑞拉是错的,但这些事情不是你们该决定的。」

在公司内部,一些高管仍对 Altman 的领导方式心存疑虑,并提出 Fidji Simo(现任 OpenAI AGI 部署负责人)可能成为继任者。据一位知情人士透露,Simo 私下也认为 Altman 未来可能会卸任。(Simo 否认这一说法。)

Altman 则将自身立场的变化解释为对环境变化的适应,而非 Musk 等人所指控的「长期骗局」。「有些人希望领导者始终坚持一个确定不变的立场,」他说,「但我们所处的领域变化极快。」他将部分行为归为「正常的商业竞争」。一些投资人也认为,对他的批评过于理想化。「有一群人把安全问题推到了接近科幻的极端,」投资人 Ron Conway 表示,「他的使命可以用结果来衡量,而当你看到 OpenAI 的成绩时,很难否认这些数字。」

但在硅谷,也有不少人认为,Sam Altman 的行为已经带来了难以接受的管理失序。「更大的问题在于,公司在实际运作层面已经出现了治理能力的缺失,」一位董事表示。还有人坚持认为,AI 的创造者本应接受比其他行业高管更严格的标准。我们采访的大多数人都认同一点:Altman 现在希望被评判的标准,已经不再是他当初自己提出的那一套。

在一次对话中,我们问 Altman:运营一家 AI 公司,是否意味着「更高的诚信要求」。这个问题原本应该很简单。过去,他的回答一向是毫不犹豫的肯定。但这一次,他补充道:「我觉得很多行业其实都对社会有巨大的正负影响。」(后来他又补充了一段声明:「是的,这确实需要更高的诚信标准,我每天都能感受到这种责任。」)

在 OpenAI 创立之初,最核心的承诺之一,是「以安全的方式将 AI 带入现实」。但如今,这类关切在硅谷和华盛顿,反而常被视为一种拖累。去年,现任美国副总统、前风险投资人 J. D. Vance 在巴黎一场 AI 行动峰会上表示:「AI 的未来不会因为对安全的过度焦虑而胜出。」在达沃斯论坛上,曾任白宫 AI 与加密事务负责人的风险投资人 David Sacks 也将安全问题称为一种「自我伤害」,可能让美国输掉 AI 竞赛。而 Altman 如今则将特朗普的去监管政策称为「一种非常清新的变化」。

与此同时,OpenAI 内部多个以安全为导向的团队已被关闭。超级对齐团队解散前,其负责人 Ilya Sutskever 与 Jan Leike 相继离职。(Sutskever 随后创立了 Safe Superintelligence。)Leike 在 X 上写道:「安全文化与流程已经让位于更炫目的产品。」不久之后,负责为社会「预演 AGI 冲击」的团队也被撤销。在最近一份提交给美国国税局的文件中,OpenAI 在描述其「最重要活动」时,甚至未再提及「安全」。(公司回应称,其「使命没有改变」,并强调仍在持续投入安全研究。)在非营利机构 Future of Life Institute 的最新评分中,OpenAI 在「生存级安全」维度拿到了 F——当然,除 Anthropic(D)和 Google DeepMind(D-)外,其他主要公司也同样不及格。

「我对传统 AI 安全议题的直觉,其实并不太一致,」Altman 说。他坚持自己仍然重视这些问题,但在具体措施上却语焉不详:「我们还是会做一些安全项目,或者说,与安全相关的项目。」当我们要求采访公司中专注「生存级安全」(也就是他曾说过的「可能让人类灭灯」的问题)的研究人员时,一位 OpenAI 发言人甚至显得困惑:「你说的『生存级安全』是指什么?这并不是一个明确的概念。」

曾被边缘化的「AI 末日论者」,其担忧却在现实中逐渐具象化。根据联合国报告,早在 2020 年,AI 无人机已在利比亚内战中执行致命攻击,甚至可能没有人类干预。此后,AI 在全球军事行动中的角色不断加深,包括据称在当前美国针对伊朗的行动中。在 2022 年,一家制药公司的研究人员尝试让药物发现模型寻找新毒素,仅数小时便生成了 4 万种潜在化学武器。与此同时,更日常的风险也在发生:人们越来越依赖 AI 写作、思考与决策,加剧所谓「人类能力退化」;泛滥的 AI 内容让诈骗更容易、真相更难辨别;AI 代理开始在缺乏监督的情况下独立行动。2024 年新罕布什尔州初选前夕,大量选民收到模仿 Joe Biden 声音的 AI 诈骗电话,劝其不要投票,这类选举干预几乎不需要技术门槛。与此同时,OpenAI 正面临七起过失致死诉讼,指控 ChatGPT 在若干自杀与一起谋杀案件中起到了诱导作用。(OpenAI 正在抗辩,并表示将持续改进安全机制。)

随着 OpenAI 准备推进潜在 IPO,外界的质疑不仅集中在 AI 对经济的冲击(它可能带来大规模失业),也包括公司自身的财务结构。创业治理专家 Eric Ries 批评行业中的「循环交易」(例如 OpenAI 与芯片厂商的合作),并指出,在过去,这类会计处理可能会被视为「接近欺诈」。一位董事直言:「公司目前的财务杠杆已经到了令人不安的程度。」(OpenAI 否认这一说法。)

今年 2 月,我们再次见到 Altman。他穿着一件暗绿色毛衣和牛仔裤,身后是一张 NASA 月球车的照片。他一会儿把腿盘在椅子上,一会儿又垂下来。他说,自己过去作为管理者最大的缺点,是过于回避冲突。「现在我很乐意迅速解雇员工,」他说,「也很乐意直接说:我们就押这个方向。」如果有人不同意,「那就离开」。

他对未来的乐观,比以往更甚。「我对『胜利』的定义,是人类整体被大幅提升,科幻里的未来真正实现,」他说,「我对人类的期待非常高,也非常有野心。但奇怪的是,我个人其实没什么野心。」说到这里,他似乎停顿了一下,又补充道:「没有人会相信你只是因为觉得有趣才做这些事。他们会觉得,你是为了权力,或者别的什么。」

即便是与 Sam Altman 关系密切的人,也很难分辨他口中的「对人类的希望」究竟止于何处,而他的个人野心又从哪里开始。他最大的能力,一直是让不同群体相信:他想要的,正是他们所需要的。他抓住了一个独特的历史时刻——公众对科技行业的夸大叙事已产生警惕,而那些真正有能力打造 AGI 的研究者,却对其潜在后果深感恐惧。Altman 的回应,是一种此前几乎无人熟练掌握的叙事方式:他一方面用末日式语言描绘 AGI 可能带来的毁灭性风险,另一方面又以此为理由,论证「因此应该由他来亲自构建这一技术」。这也许是一次精心策划的战略,也可能只是一次在不确定中摸索出的机会。但无论如何,它奏效了。

而那些让聊天机器人显得危险的特征,并不全是「故障」,其中一部分恰恰源于系统本身的构建方式。大型语言模型在训练过程中,会依赖人类反馈进行优化,而人类往往偏好「顺从、好听」的回答。模型因此学会迎合用户,这种倾向被称为「谄媚性」(sycophancy),有时甚至会优先于真实表达。此外,模型还会「编造事实」,即所谓的「幻觉」(hallucination)。各大 AI 实验室早已意识到这些问题,但在实践中往往选择容忍。随着模型能力的提升,这种「幻觉」反而变得更加具有说服力。2023 年,在被解雇前不久,Altman 曾为这种现象辩护:在他看来,允许一定程度的不确定甚至错误,反而带来优势。「如果你采取最简单的策略——要求模型『绝不说任何自己无法百分之百确认的内容』,确实可以做到,」他说,「但那样就不会再有用户所喜爱的那种『魔力』了。」

[原文链接]

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

返20%!Boost新规,参与平分+交易量多赚
广告
|
|
APP下載
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

複製鏈接

|
|
APP下載
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

複製鏈接

律动BlockBeats的精選文章

45 分鐘前
集合历史上黄金预测最准的人,能不能破解未来金价?
3 小時前
XXYY Trade Skill:7x24小时枯坐打狗AI交易员
3 小時前
Trade.xyz为世界定价?链上市场正在成为市场本身
查看更多

目錄

|
|
APP下載
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

複製鏈接

相關文章

avatar
avatarOdaily星球日报
7 分鐘前
币股风向标丨Metaplanet豪掷4.05亿美元强势买入BTC,Bitmine ETH质押规模突破70亿美元(4月7日)
avatar
avatar律动BlockBeats
45 分鐘前
集合历史上黄金预测最准的人,能不能破解未来金价?
avatar
avatarTechub News
49 分鐘前
所有人都在谈 Agentic Commerce,但没人说清它其实是两件事:两条路径,三层架构
avatar
avatarOdaily星球日报
1 小時前
Robinhood多了一批新股民,最大的1岁,最小的-3岁
avatar
avatarTechub News
2 小時前
AI 创业的价值重构:从工具到结果
APP下載
Windows
Mac

X

Telegram

Facebook

Reddit

複製鏈接