萨姆·阿尔特曼在2025年开始时做出了一个大胆的声明:OpenAI已经找到了创造人工通用智能(AGI)的方法,这个术语通常被理解为人工智能系统能够理解、学习和执行任何人类能够完成的智力任务的时刻。
在周末发布的一篇反思博客文章中,他还表示,第一波人工智能代理可能会在今年加入劳动力市场,标志着他所描述的技术历史上的一个关键时刻。
阿尔特曼描绘了OpenAI从一个安静的研究实验室到一家声称即将创造AGI的公司的旅程。
这个时间表似乎雄心勃勃——也许过于雄心勃勃——尽管ChatGPT刚刚庆祝了它的两岁生日,阿尔特曼暗示下一代能够进行复杂推理的人工智能模型已经到来。
从那里开始,所有的工作都是将近似人类的人工智能融入社会,直到人工智能在所有领域都超越我们。
AGI何时来临,ASI又何时?
阿尔特曼对AGI含义的阐述仍然模糊,他的时间预测在人工智能研究人员和行业老手中引发了质疑。
“我们现在有信心知道如何构建传统意义上的AGI,”阿尔特曼写道。“我们相信,在2025年,我们可能会看到第一个人工智能代理‘加入劳动力市场’,并实质性地改变公司的产出。”
阿尔特曼的解释模糊不清,因为AGI没有标准化的定义。随着人工智能模型变得更强大,但不一定更有能力,每次都需要提高标准。
“在考虑阿尔特曼关于AGI级人工智能代理的说法时,重要的是关注AGI定义的演变,”Fetch.ai的首席执行官兼ASI联盟主席胡马云·谢赫告诉Decrypt。
“虽然这些系统已经能够通过许多与AGI相关的传统基准测试,例如图灵测试,但这并不意味着它们是有意识的,”谢赫说。“AGI尚未达到真正意识的水平,我认为在相当长的一段时间内不会达到。”
阿尔特曼的乐观与专家共识之间的脱节引发了对他所说的“AGI”的含义的质疑。他对人工智能代理在2025年“加入劳动力市场”的阐述听起来更像是先进的自动化,而不是真正的人工通用智能。
“超智能工具可以大幅加速科学发现和创新,远远超出我们自己所能做到的,从而大幅增加富裕和繁荣,”他写道。
但是,当阿尔特曼说AGI或代理整合将在2025年成为现实时,他是否正确?并不是每个人都这么确定。
“现有人工智能模型存在太多的错误和不一致之处,必须先解决这些问题,”去中心化超级应用Galxe的联合创始人查尔斯·韦恩告诉Decrypt。“也就是说,看到AGI级人工智能代理的出现可能是几年而不是几十年的问题。”
一些专家怀疑阿尔特曼的大胆预测可能有其他目的。
无论如何,OpenAI一直在以惊人的速度消耗现金,需要大量投资以保持其人工智能开发的进展。
根据一些人,承诺即将突破可能有助于维持投资者的兴趣,尽管公司的运营成本相当高。
对于一个声称即将实现人类最重要技术突破之一的人来说,这确实是一个相当大的注脚。
尽管如此,其他人仍然支持阿尔特曼的说法。
“如果萨姆·阿尔特曼说AGI即将到来,那么他可能有一些数据或商业头脑来支持这一说法,”数字身份平台SPACE ID的业务发展总监哈里森·塞莱茨基告诉Decrypt。
塞莱茨基表示,如果阿尔特曼的说法属实,并且技术在同一领域持续发展,“广泛智能的人工智能代理”可能在一两年内就会出现。
OpenAI的首席执行官暗示,AGI对他来说还不够,他的公司正瞄准ASI:一种超越人类在所有任务上能力的人工智能发展状态。
“我们开始将目标超越到真正意义上的超智能。我们热爱我们当前的产品,但我们在这里是为了辉煌的未来。拥有超智能,我们可以做任何事情,”阿尔特曼在博客中写道。
虽然阿尔特曼没有详细说明ASI的时间框架,但一些人预计,到2116年,机器人可以替代所有人类。
阿尔特曼之前曾表示,ASI只是“几千天”的问题,但来自预测研究所的专家给出了50%的概率,认为ASI将在2060年之前实现。
知道如何达到AGI并不等于能够达到它。
Meta的首席人工智能研究员扬·勒昆表示,由于训练技术或处理如此大量信息所需的硬件的限制,人类距离达到这一里程碑仍然很远。
影响力颇大的人工智能研究员和哲学家埃利泽·尤德科夫斯基也曾辩称,这可能是一种炒作行为,基本上是为了在短期内使OpenAI受益。
人类工人与人工智能代理
因此,代理行为是一个现实——与AGI或ASI不同——而且人工智能代理的质量和多样性正在比许多人预期的更快增长。
像Crew AI、Autogen或LangChain这样的框架使得创建具有不同能力的人工智能代理系统成为可能,包括与用户密切合作的能力。
这对普通人意味着什么?这对日常工人来说是危险还是祝福?
专家们并不太担心。
“我不相信我们会看到组织结构在一夜之间发生剧烈变化,”Fetch.ai的谢赫说。“虽然人力资本可能会有所减少,特别是在重复性任务方面,但这些进步也可能解决当前遥控飞行器系统无法处理的更复杂的重复性任务。”
塞莱茨基还认为,代理最有可能执行重复性任务,而不是那些需要某种决策水平的任务。
换句话说,如果人类能够利用他们的创造力和专业知识来发挥优势,并承担其行为的后果,他们是安全的。
“我认为在不久的将来,决策不一定会由人工智能代理主导,因为它们可以推理和分析,但它们还没有那种人类的独创性,”他告诉Decrypt。
而且,至少在短期内似乎达成了一定程度的共识。
“关键的区别在于AGI方法中缺乏‘人性’。这是一种客观、数据驱动的金融研究和投资方法。这可以帮助而不是妨碍金融决策,因为它消除了常常导致草率决策的一些情感偏见,”Galxe的韦恩说。
专家们已经意识到采用人工智能代理可能带来的社会影响。
来自香港城市大学的研究认为,生成性人工智能和代理一般必须与人类合作,而不是替代他们,以便社会能够实现健康和持续的增长。
“人工智能在技术、商业、教育、医疗保健以及艺术和人文学科等各个领域都带来了挑战和机遇,”研究论文中写道。“人类与人工智能的合作是应对挑战和抓住生成性人工智能带来的机遇的关键。”
尽管推动人类与人工智能合作,但公司已经开始用人工智能代理替代人类工人,结果却参差不齐。
一般来说,他们总是需要人类来处理代理无法完成的任务,这可能是由于幻觉、训练限制或简单的缺乏上下文理解。
截至2024年,近25%的首席执行官对拥有一群数字化奴役的代理人感到兴奋,这些代理人可以在没有劳动成本的情况下完成与人类相同的工作。
尽管如此,其他专家认为,人工智能代理可以在几乎80%的首席执行官工作中表现得更好——因此没有人真的安全。
编辑:塞巴斯蒂安·辛克莱
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。