根据谷歌的威胁情报小组的说法,网络罪犯利用一种人工智能模型发现并武器化了一个流行的开源网页管理工具中的零日漏洞。
在周一发布的报告中,谷歌表示,该漏洞使攻击者能够绕过双因素认证,并警告称,攻击者在公司干预之前已经准备了一场大规模的利用活动。这是谷歌首次确认在野外发生的人工智能辅助零日漏洞开发。
“随着人工智能模型编码能力的进步,我们继续观察到对手越来越多地利用这些工具作为专业级的力量倍增器进行漏洞研究和利用开发,包括零日漏洞。”谷歌写道。“虽然这些工具增强了防御研究,但它们也降低了对手逆向工程应用程序并开发复杂的人工智能生成利用的门槛。
该报告的发布恰逢研究人员和政府警告人工智能模型正在通过帮助黑客寻找漏洞、生成恶意软件和自动化利用开发来加速网络攻击。
“尽管前沿大型语言模型在处理复杂的企业授权逻辑时面临挑战,但它们在进行上下文推理方面的能力正在逐渐增强,有效地读取开发者的意图,将双因素认证执行逻辑与其硬编码例外的矛盾进行关联,”报告中提到。“这种能力可以让模型发现那些在传统扫描器看来功能正常但从安全角度来看战略性损坏的潜在逻辑错误。”
根据谷歌的说法,这些未具名的攻击者利用人工智能识别了一个逻辑缺陷,该缺陷使软件信任一个绕过其双因素认证保护的条件。与传统扫描器搜索损坏的代码或崩溃不同,人工智能分析了软件的预期工作方式并检测到矛盾,从而使攻击者能够在不破坏加密本身的情况下绕过安全检查。
“人工智能驱动的编码加速了对基础设施套件和多态恶意软件的开发。”谷歌写道。“这些人工智能启用的开发周期通过创建混淆网络和在我们与涉嫌与俄罗斯有关的威胁参与者关联的恶意软件中集成人工智能生成的诱饵逻辑,促进了防御规避。”
报告指出,来自中国和朝鲜的威胁参与者正在使用人工智能寻找软件弱点,而俄罗斯团体则利用它来隐藏其恶意软件。
“这些参与者采用了复杂的方法来增强人工智能的漏洞发现和利用,开始以基于角色驱动的越狱尝试和整合专门的高保真安全数据集以增强他们的漏洞发现和利用工作流程。”谷歌写道。
虽然谷歌的报告旨在警告人工智能驱动网络攻击的日益风险,但一些研究人员认为这种恐惧被夸大了。剑桥大学进行的一项研究分析了超过90,000条网络犯罪论坛线程,发现大多数罪犯使用人工智能进行垃圾邮件和网络钓鱼,而不是使用人工智能进行复杂网络攻击。
“考虑到亚文化和社会学习在入门中的重要性,越狱的大型语言模型(黑暗人工智能)作为讲师的角色也被夸大了——新用户在学习黑客和网络犯罪技能时重视社会联系和社区认同,和知识本身一样重要。”该研究表示。“因此,我们的初步结果表明,即便是对犯罪者崛起的哀叹也许会过分夸大目前的干扰程度。”
然而,尽管剑桥的发现如此,威胁情报小组的报告也恰值谷歌面临与人工智能驱动工具相关的安全担忧。今年四月,该公司修补了其Antigravity人工智能编码平台中的一个提示注入漏洞,研究人员表示该漏洞可能让攻击者通过操纵提示在开发者的机器上执行命令。
“虽然我们不认为Gemini被使用,但根据这些利用的结构和内容,我们高度相信攻击者很可能利用了一个人工智能模型来支持该漏洞的发现和武器化。”谷歌研究人员写道。
今年早些时候,Anthropic在测试显示其Claude Mythos模型能够识别数千个此前未发现的未知软件缺陷后,限制了对该模型的访问。这些发现也增加了人们的担忧,即人工智能模型正在重塑网络安全,帮助防御者和攻击者更快地找到漏洞。
“随着这些能力进入更多防御者的手中,许多其他团队现在也经历着当初我们在发现首次显现时所感受到的眩晕,”Mozilla在四月的一篇博客中写道。“对于一个坚固的目标来说,仅仅一个这样的漏洞在2025年就会引发红色警报,而如此多漏洞同时出现使你不禁想停下来思考是否仍有可能跟上节奏。”
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。