3月29日,非营利组织“未来生命研究所(Future of Life Institute)”发表了一封题为“暂停巨型AI实验”的公开信,呼吁全球的AI实验室暂停训练比GPT-4更强大的系统至少6个月,并在此期间开发出一份针对AI的共享安全协议,必要时需要政府介入。
1000多名科技人士在这份公开信上签名,包括特斯拉CEO马斯克、Stability AI 的CEO Emad Mostaque等企业掌门人,也包括Alphabet旗下DeepMin的研究人员,还有诸如图灵奖得主Yoshua Bengio这样的重量级学者。当然,也有人表达了不同意见,认为这是在阻碍技术进步。
开发出GPT-4模型的OpenAI公司内还没有人签名,该公司目前也没有对这封公开信予以回应。但我们向卷入纷争中的ChatGPT要了个回应。
这个AI自然语言大模型产品倒是表现出了善解人意的一面:暂停实验存在合理性,但需要谨慎考虑这么做带来的技术发展滞后问题。它还给出了关于AI的六大风险和十个管理制度建议。

截至今日,挂在“未来生命研究所(FLI)“官网上的《暂停巨型AI实验》公开信,已经收集了1130人的签字,名单里精英云集,不乏特斯拉、苹果等科技公司的高管,也有政客和作家,当年,更多的是全球多所高校的教授以及人工智能领域的专家。
那么精英云集签字的这封公开信到底说了什么?以下是这封信的全文(向上滑动启阅)
事实上,这封公开信是近期人类精英们对人工智能风险担忧的总爆发。自 ChatGPT 高速迭代后,担忧从未停止,特别是当微软、谷歌、百度、华为等科技巨头们在自然语言模型上展开“军备竞赛”之后。
日前,“深度学习之父”杰弗里·辛顿(Geoffrey Hinton)在媒体采访中表示,人工智能正处于“关键时刻”,毁灭人类“并非不可能”。AI领域内的“大牛”盖瑞·马库斯(Gary Marcus)发推特支持辛顿,甚至发出灵魂一问:“用百分之一的人类毁灭风险换取和机器对话带来的乐趣,这值得吗?”
而马库斯在转发FLI这封公开信时表示,“这封信并不完美,但精神是正确的。我们需要放慢脚步,直到我们更好地理解AI带来后果……他们可能会造成严重伤害……主要参与者对他们正在做的事情越来越保密,这使得社会很难抵御可能发生的任何伤害。”
也有科技圈人士对这封信的观点持不同意见。
Writer的创始人Waseem 以讽刺的语气表达了他对权威们的不满,“让我们停止建设和发展我们的公司,因为来自硅谷的亿万富翁说我们有风险。一定要喜欢那些比我们人类更聪明的人,因为他们告诉我们如何生活。当我们有他们神圣的指引时,谁还需要进步?”
OSS Capital的创始人Joseph Jacks 态度更是简洁明了:强烈反对,绝对不签这个。
ChatGPT:暂停合理但小心阻滞技术
目前,OpenAI 还没有就 FLI 的这封公开信做出回应。而我们把人类精英们的担忧与建议甩给了ChatGPT,引发这场纷争的这个对话机器人不但认可了FLI要求暂停实验的合理性,还补充了六大AI风险。
连ChatGPT自己都这么说了,可见,“AI失控”、”替代人类“无论是在意见领袖圈层还是舆论场上都有探讨的意义。
最近,微软的创始人比尔·盖茨在大力肯定人工智能带来生产力提升的同时,也强调过风险,“AI失控的可能性是存在的,一台机器会认为人类是自己的威胁吗?它们会得出结论认为自身利益与人类的利益不同进而不在意我们吗?” 他预测,随着算法、算力的提升,超级智能AI会在未来出现。
连 OpenAI 的CEO Sam Altman都表示,超级智能AI的风险可能会远远超出我们的预料。此前,他在技术研究员Lex Fridman的播客中表达他的担忧,包括AI造成的虚假信息问题,带来的经济冲击等等,“危害可能远远超过了人类能应对的程度”,他举了个例子,“我们怎么会知道,大语言模型没有在推特上指挥大家的思想流动呢?”
这正应了那封公开信中所说的:没有人能够理解、预测或可靠地控制这些数字思维,“甚至他们的创造者也不能”。
虽然通用人工智能(AGI)还远远没有到来,但就像比尔·盖茨说得那样,在这之前,世界需要建立规则以使AI带来的正面影响远远超过其负面影响。
换句话说就是,别让人类造出的东西把人类自己灭了。毕竟,战争、核事故带来的灾难还历历在目。

你认为研究AI对策需要暂停AI实验吗?

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。