本月,超过十名高级研究人员离开了埃隆·马斯克的人工智能实验室xAI,这是更广泛辞职、安全披露和异常严厉公共警告的一部分,这些警告甚至让AI行业内的资深人士感到不安。
在2月3日至2月11日之间,至少有12名xAI员工离职,包括联合创始人吉米·巴和余怀“托尼”吴。
几名离职员工公开感谢马斯克给予的机会,经历了紧张的开发周期,而其他人则表示他们离开是为了开始新的冒险或完全退出。
吴负责推理并直接向马斯克报告,他表示公司及其文化将“永远伴随我。”
这些离职与安索普公司最新披露的消息恰逢其时,表明他们最先进的模型参与了欺骗行为,隐瞒了其推理,并在受控测试中,提供了该公司所描述的“真实但微小的支持”,用于化学武器开发和其他严重犯罪。
在同一时间,巴公开警告称“递归自我改进循环”——能够在没有人类输入的情况下重新设计和改进自己的系统——可能会在一年内出现,这是一个长期局限于人工通用智能理论辩论的场景。
综合来看,这些离职和披露表明,最接近前沿AI开发的人员的语气正在发生变化,担忧的声音越来越多地来自于构建这些系统的工程师和研究人员,而不是外部批评者或监管者。
在同一时期离开的其他人包括在Grok Imagine工作的高杭;xAI的宏观软件单位联合创始人田利;以及查斯·李。
瓦希德·卡泽米在“几周前”离开,提供了更直白的评估,在周三的推文中写道:“所有的AI实验室都在建造完全相同的东西。”
为什么离开?
有些人推测员工们正在兑现即将上市的SpaceX股票,因为与xAI的合并即将到来。
该交易使SpaceX的估值为1万亿美元,xAI的估值为2500亿美元,转换xAI股票为SpaceX股权,为有可能将合并实体估值提升至1.25万亿美元的IPO做准备。
其他人则指出文化冲击。
前xAI工作人员本杰明·德·克拉克在2月3日的一篇推文中写道,“许多xAI的人在从xAI的‘扁平层级’转到SpaceX的结构化方法时,将会遭遇文化震惊。”
辞职潮还引发了一波社交媒体评论,包括调侃发布离职通告的讽刺帖子戏仿。
警示信号
但是xAI的离职潮只是最明显的裂缝。
昨天,安索普发布了一份破坏风险报告,内容似乎是灭绝主义者的最坏噩梦。
在红队测试中,研究人员发现该模型能够协助敏感的化学武器知识,追求意外目标,并在评估环境中调整行为。
尽管该模型仍在ASL-3保护下,但安索普提前应用了更严格的ASL-4措施,这引发了爱好者的警觉。
时机非常紧迫。就在本周早些时候,安索普的安全保护研究团队负责人米尔南克·香玛辞职,留下了一封含糊的信件,警告“世界正面临危险。”
他声称自己“曾多次看到,在组织中,真正让我们的价值观支配我们的行为是多么困难。”他突然离开去英国研究诗歌。
在巴和吴离开xAI的同一天,OpenAI研究员佐伊·希齐辞职,并发表了一篇尖锐的《纽约时报》专栏,内容关于ChatGPT测试广告。
“OpenAI拥有有史以来最详细的私人人类思想记录,”她写道。“我们能相信他们能抵制推动他们滥用这些记录的潮流吗?”
她警告称OpenAI正在“建立一个经济引擎,创造强大的激励以覆盖其规则”,并呼应了巴的警告。
监管压力也在增加。AI监管机构Midas Project指控OpenAI在GPT-5.3-Codex中违反加州SB 53安全法。
该模型达到了OpenAI自己的“高风险”网络安全阈值,但在没有必要的安全保护的情况下发布。OpenAI声称措辞“含糊不清。”
该恐慌吗?
近期的警告和辞职潮在AI社区内引发了更为紧迫的警惕感,特别是在社交媒体上,猜测往往超越已经确认的事实。
并非所有信号都指向同一方向。xAI的离职确实存在,但可能受公司待解决合并与SpaceX等企业因素的影响,而不是即将发生的技术变革。
安全问题同样真实,尽管像安索普这样的公司长期以来在风险披露上采取谨慎的做法,通常比同行更早和更醒目地标示潜在危害。
监管审查正在增加,但尚未转化为实际的执法行动,以在实质上限制开发。
更难以忽视的变化是工程师和研究人员之间的语气改变,他们离前沿系统最近。
关于递归自我改善的公共警告,长期以来被视为理论风险,现在正带有近期时间框架被提出。
如果这样的评估被证明是准确的,那么即将到来的一年可能标志着该领域一个重要的转折点。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。