2016 年,山姆·奥特曼在怀俄明州地下建了一座地堡。1,200 平方米,三层结构,500 公斤黄金,5,000 片碘化钾,5 吨冻干食品,10 万发子弹。那一年,OpenAI 刚成立一周年。
十年之后,世界上最有权力的 AI 公司的掌门人,连续两个周末遭到袭击,先是燃烧瓶,后是枪击。他本人在博客里说,他严重低估了「叙事的力量」。他说的是别人的叙事,还是他自己的?
48 小时,两次袭击
4 月 10 日凌晨 3 时 40 分,旧金山切斯纳特街。一个 20 岁的男人,Daniel Moreno-Gama,将一只燃烧瓶砸向山姆·奥特曼公寓的金属大门。火势引燃了外门附近,他随即逃离。约一小时后,同一人出现在 OpenAI 旧金山办公室附近,继续威胁纵火,随即被捕。指控包括谋杀未遂和纵火。

山姆·奥特曼旧金山住所,及纵火嫌疑人监控影像
两天后,4 月 12 日凌晨 1 时 40 分,一辆本田轿车停在奥特曼位于俄罗斯山的另一处住所旁。车内乘客将手伸出窗外,向住所开了一枪。监控录像记录了车牌,警方随后逮捕两人:Amanda Tom(25 岁)和 Muhamad Tarik Hussein(23 岁)。搜查住所时发现三支枪,两人被控过失开枪罪。
一个周末,两起袭击。
第一起案件的嫌疑人 Daniel Moreno-Gama 是位 AI 悲观主义者。他在社交媒体上引用《沙丘》中人类对抗机器的主题,写文章论证 AI 对齐失效构成存亡级风险,批评科技领袖为追求「超人类主义」而「拿全人类命运豪赌」。
他的论据是什么?
过去五年,OpenAI 建构 AI 叙事的标准动作之一,就是反复强调 AGI 的「存在级」威胁有多真实。为了让政府认真对待监管,为了让投资人理解这个赌注有多大,也为了让整个行业都意识到这场竞赛不容错过。这套话语有它的功能,它让 OpenAI 在三件事上同时成立:前沿最危险、我们最负责任、所以资金应该给我们。
但「这是人类历史上最危险的技术」这句话,发出去之后不会只停在科技圈和投资人那里。它会向下传导,在某些人那里变成字面意义上的行动指令。Moreno-Gama 在 ins 分享里写,「指数级进步加上对齐失效,等于存亡风险」。这个论证框架的原始来源,是 AI 安全研究的主流文献,其中很多由 OpenAI 资助或背书。

Daniel Moreno-Gama 社媒账号
第一次袭击后,奥特曼在博客发文。他贴了一张与孩子的合照,说他希望这张照片能阻止下一个人向他家扔燃烧瓶。他承认反对者的「合法道义立场」,呼吁公共讨论「在字面和比喻意义上都少一点爆炸性」。
他还在回应一篇《纽约客》深度报道。那篇文章就在袭击前数天发布,公开质疑他作为 AI 最高权力掌控者的可信度。他写道,「我严重低估了舆论叙事和言语的力量。」
两天后,他的住所又遭到枪击。
安保预算是一种表态,地堡是另一种
这条轨迹的起点,比大多数人意识到的要早一年。
2024 年 12 月 4 日,纽约。UnitedHealthcare CEO Brian Thompson 在希尔顿酒店外被枪杀。嫌疑人 Luigi Mangione,常春藤名校毕业,留下了批判医疗保险行业的手写声明。案件在社交媒体上引发了一波不寻常的反应:大量普通用户公开表达对凶手的同情,甚至把他捧成了某种反抗符号。
那一刻,有些门被推开了。
Thompson 案之后,高管安保这件事从「福利待遇」变成了「生存需求」。根据《财富》杂志引用的调研数据,2023 年以来,针对大企业高管的人身犯罪袭击比例增幅达 225%。标普 500 成分公司中,2025 年有 33.8% 在财报中报告了高管安全支出,2020 年这个数字是 23.3%。提供安保服务的公司,中位数成本为 13 万美元,同比增长 20%,五年内翻倍。
AI 行业是这个趋势最新、最显眼的接收端。十大科技巨头 CEO 2024 年安保支出总计超过 4,500 万美元。扎克伯格一人超过 2,700 万美元,高于苹果、谷歌等四家 CEO 费用的总和。英伟达黄仁勋 2025 年为 350 万美元,同比增长 59%。谷歌皮查伊为 827 万美元,增长 22%。
AI 行业有个别的行业没有的东西,那就是连建造者自己都相信,这项技术可能毁灭文明。皮尤研究中心 2025 年调查了全球 28,333 名受访者,只有 16% 对 AI 发展感到兴奋,34% 表示担忧。更反直觉的发现是:受教育程度越高、收入越高,对 AI 失控的担忧反而越强。懂得最多的人,最害怕它。
前不久,印第安纳波利斯市议员 Ron Gibson 的住宅遭枪手在深夜连射 13 枪,他的 8 岁儿子被枪声惊醒。门口留着一张手写纸条,「不准建数据中心。」FBI 已介入调查。乔治华盛顿大学极端主义研究项目的研究员 Jordyn Abrams 指出,数据中心正在成为反科技、反政府极端分子的攻击目标。

Ron Gibson 枪击案现场
这种恐惧在行业内部不是秘密,只是不被大声说出来。
奥特曼在怀俄明州建那座地堡是 2016 年。那一年,OpenAI 刚刚宣告成立,正在向全世界描绘 AI 将如何造福人类。两件事同时成立,他在台上讲 AI 是人类最大的机遇,在私下囤积足够支撑一支武装民兵的弹药。
这是一种理性的双重下注:公开押注 AI 会成功,私下准备 AI 会失控。
奥特曼的回旋镖
今年 2 月 27 日,OpenAI 与美国国防部签署合同,允许五角大楼将 ChatGPT 部署于机密防务网络,使用范围涵盖「任何合法用途」。同一天,奥特曼还公开表示认同 Anthropic 对 AI 军事应用的限制立场。随后 ChatGPT 单日卸载量激增 295%,一星评价 24 小时内增加 775%。QuitGPT 抵制运动据称累计超过 150 万人参与。
3 月 21 日,约 200 名抗议者在旧金山游行,横跨 Anthropic、OpenAI 和 xAI,要求三家 CEO 承诺暂停前沿 AI 开发。同期,伦敦出现了迄今规模最大的反 AI 游行。
奥特曼的怀俄明州地堡和他雇用的安保,针对的是两种不同的风险,一种来自外面的人,一种来自他自己正在建造的东西。他在私下认真对待这两种风险,在公开场合只承认其中一种。
第一次袭击发生的同一周,《纽约客》刊发了一篇对奥特曼的深度报道。记者 Ronan Farrow 和 Andrew Marantz 采访了逾 100 名知情人,核心论点只有两个字:不可信。报道援引一位前 OpenAI 董事会成员的话,称奥特曼是「反社会人格」,「不受真相约束」。多位前同事描述他反复改口关于 AI 安全的立场,在必要时重新定义权力结构。
奥特曼在博文里回应时,承认自己有「冲突回避」的倾向。奥特曼建构了「AI 是存在级威胁」的公共叙事,作为募资和监管博弈的工具。结果这个工具从他手里飞了出去,绕了一圈,砸回了他的门上。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。