人工智能即将接管语言、法律和宗教,历史学家尤瓦尔·诺亚·哈拉里警告道

CN
Decrypt
關注
4 小時前

历史学家和作家尤瓦尔·诺亚·哈拉里在周二的世界经济论坛上警告说,人类面临失去对语言控制的风险,他称之为人类的定义“超级力量”,因为人工智能越来越多地通过自主代理而非被动工具运作。

作为《人类简史》的作者,哈拉里已成为全球关于人工智能社会影响辩论中的常见声音。他认为,法律法规、金融市场和有组织的宗教几乎完全依赖于语言,这使它们特别容易受到能够大规模生成和操控文本的机器的影响。

“人类之所以统治世界,不是因为我们在身体上最强,而是因为我们发现了如何使用语言让成千上万、数百万、数十亿陌生人合作,”他说。“这就是我们的超级力量。”

哈拉里指出,基于神圣文本的宗教,包括犹太教、基督教和伊斯兰教,认为人工智能能够阅读、保留和综合大量书写材料,这可能使机器成为最权威的经文解释者。

“如果法律是由文字构成的,那么人工智能将接管法律系统,”他说。“如果书籍只是文字的组合,那么人工智能将接管书籍。如果宗教是由文字构成的,那么人工智能将接管宗教。”

在达沃斯,哈拉里还将人工智能系统的传播比作一种新的移民形式,并表示围绕该技术的辩论将很快集中在政府是否应该赋予人工智能系统法律人格的问题上。包括犹他州、爱达荷州和北达科他州在内的几个州已经通过法律明确规定,人工智能不能被视为法律上的人。

哈拉里在结束发言时警告全球领导人迅速采取行动制定有关人工智能的法律,而不是假设这项技术将保持中立的仆人。他将当前推动采用该技术的情况与历史上雇佣军后来夺取权力的案例进行了比较。

“十年后,你将无法决定人工智能是否应该在金融市场、法庭和教堂中作为人存在,”他说。“其他人将已经为你做出了决定。如果你想影响人类的未来,你需要现在做出决定。”

哈拉里的评论可能对那些担心人工智能迅速扩散的人产生强烈影响,但并非所有人都同意他的框架。华盛顿大学的语言学教授艾米莉·M·本德表示,哈拉里所提出的风险定位只会将注意力从负责构建和部署人工智能系统的人类行为者和机构上转移开。

“在我看来,这实际上是试图掩盖那些构建这些系统的人和公司的行为,”本德在接受Decrypt采访时表示。“同时也是一种要求,要求每个人在许多领域,包括我们语言的权利,向这些公司以所谓的人工智能系统的名义放弃我们自己的权利。”

本德拒绝了“人工智能”描述一个清晰或中立的技术类别的观点。

“人工智能这个术语并不指代一组连贯的技术,”她说。“它实际上,一直以来,都是一个营销术语,”并补充说,旨在模仿医生、律师或神职人员等专业人士的系统缺乏合法的使用案例。

“能够听起来像医生、律师、神职人员等的东西有什么目的?”本德说。“其目的就是欺诈。就这样。”

虽然哈拉里指出了人工智能代理在管理银行账户和商业互动中的日益使用,但本德表示,风险在于人们对看似权威的机器生成输出的信任程度——而这些输出缺乏人类的问责。

“如果你有一个系统,可以用问题去探测,并得到一个看起来像答案的东西——这个答案被剥离了上下文,并且没有任何问责,但被定位为来自某个全知的神谕——那么你可以看到人们会希望这样的东西存在,”本德说。“我认为这里有很大的风险,人们会开始朝这个方向倾斜,并利用这些输出来塑造他们自己的想法、信仰和行动。”

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接