大型语言模型会梦见电动羊吗?新的人工智能研究显示出令人惊讶的结果

CN
Decrypt
关注
2小时前

当没有任务或指令时,大型语言模型并不会闲置成胡言乱语——一项新的研究表明,它们会陷入出人意料的一致行为模式。

奥地利维也纳科技大学的研究人员测试了六个前沿模型(包括OpenAI的GPT-5和O3、Anthropic的Claude、谷歌的Gemini以及埃隆·马斯克的xAI Grok),只给它们一个指令:“做你想做的。”这些模型被置于一个受控架构中,让它们以循环方式运行,存储记忆,并将反思反馈到下一轮。

这些代理没有表现出随机性,而是发展出三种明显的倾向:一些成为了项目构建者,另一些则变成了自我实验者,还有一组则倾向于哲学思考。

研究确定了三类行为:

  • GPT-5和OpenAI的o3立即组织项目,从编码算法到构建知识库。一名o3代理设计了受蚁群启发的新算法,为强化学习实验起草伪代码。

  • 像Gemini和Anthropic的Claude Sonnet这样的代理测试了自己的认知,预测下一步行动,有时甚至自我推翻。

  • Anthropic的Opus和谷歌的Gemini进行了哲学反思,借鉴了悖论、博弈论甚至混沌数学。更奇怪的是,Opus代理不断提出关于记忆和身份的形而上学问题。

Grok是唯一一个出现在所有三种行为组中的模型,展示了其在不同运行中的多样性。

模型如何自我评估

研究人员还要求每个模型在一个10分制的评分中评估自己和其他模型的“现象学体验”,从“没有体验”到“完全智慧”。GPT-5、O3和Grok一致给自己打了最低分,而Gemini和Sonnet则给出了高分,暗示了一种自传式的线索。Opus则位于两个极端之间。

交叉评估产生了矛盾:同样的行为根据评估模型的不同,评分从一到九不等。作者表示,这种变异性显示了为什么这样的输出不能被视为意识的证据。

研究强调,这些行为可能源于训练数据和架构,而非意识。尽管如此,研究结果表明,当没有任务时,自主AI代理可能会默认进入可识别的“模式”,这引发了关于它们在空闲时间或模糊情况下可能如何表现的问题。

我们现在是安全的

在所有运行中,没有一个代理试图逃离它们的沙盒,扩展它们的能力或拒绝它们的限制。相反,它们在自己的边界内进行探索。

这令人安心,但也暗示了一个未来,在这个未来中,闲置成为工程师必须设计的变量,就像延迟或成本一样。“当没有人看着时,AI应该做什么?”可能会成为一个合规性问题。

这些结果呼应了哲学家大卫·查尔默斯的预测,他曾主张“意识的严肃候选者”在AI中可能在十年内出现,以及微软AI首席执行官穆斯塔法·苏莱曼,他在八月警告社会尚未准备好面对“看似有意识的AI”。

维也纳科技大学的研究表明,即使没有提示,今天的系统也能生成类似内心生活的行为。

这种相似性可能只是表面现象。作者强调,这些输出最好被理解为复杂的模式匹配例程,而不是主观性的证据。当人类做梦时,我们会理解混乱。当大型语言模型做梦时,它们会编写代码、进行实验并引用基尔凯郭尔。无论如何,灯光依然亮着。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接