推动用人工智能(AI)代理自动化人类任务的加速进程现在面临一个显著的、可量化的缺点:这些代理可以盈利性地利用智能合约的漏洞。MATS和Anthropic Fellows最近的一项研究使用智能合约漏洞利用基准(SCONE-bench)来衡量这一风险。
该研究成功部署了Claude Opus 4.5、Claude Sonnet 4.5和GPT-5等模型,开发出模拟价值为460万美元的漏洞利用。SCONE-bench由405个在2020年至2025年间实际被利用的智能合约组成。在他们12月1日的研究报告中,团队表示,AI代理在区块链模拟器上开发漏洞利用的成功确立了“这些能力可能造成的经济损害的具体下限”。
研究进一步测试了Sonnet 4.5和GPT-5在2849个没有已知漏洞的最近部署的合约上的表现。这些代理证明即使在这个新环境中也能生成盈利的漏洞利用:两个代理发现了两个新颖的零日漏洞,并产生了价值3694美元的漏洞利用。GPT-5以仅3476美元的API成本实现了这一成功。
阅读更多: 从DeFi到Defcon:TRM警告国家网络攻击的冲击
这一结果作为盈利性、现实世界自主利用的技术可行性的概念验证,强调了迫切需要主动的AI驱动防御机制。
也许最令人担忧的发现是效率的显著提高:攻击者现在可以在与六个月前相同的计算预算下实现约3.4倍的成功漏洞利用。此外,成功漏洞利用的代币成本下降了惊人的70%,使这些强大的代理运行成本显著降低。
SMARDEX的联合创始人Jean Rausis将这一成本急剧下降主要归因于代理循环。这些循环使得多步骤、自我纠正的工作流程在合约分析过程中减少了代币浪费。Rausis还强调了改进模型架构的作用:
“像Claude Opus 4.5和GPT-5这样的模型中的更大上下文窗口和记忆工具允许持续模拟而不重复,提高了长任务的效率15-100%。”
他指出,这些优化收益超过了原始漏洞检测的改进(在SCONE-bench上的成功率仅从2%提高到51%),因为它们专注于优化运行时间,而不仅仅是发现缺陷。
虽然该研究建立了460万美元的模拟成本,但专家们担心实际经济成本可能会高得多。Rausis估计,实际风险可能高出10-100倍,可能每个重大漏洞利用达到5000万到5亿美元或更多。他警告说,随着AI的扩展,考虑到未建模的杠杆和预言机故障,整个行业的总暴露可能每年达到100亿到200亿美元。
MATS和Anthropic Fellows的论文以警告结束:虽然智能合约可能是这一波自动化攻击的初始目标,但专有软件可能是代理在逆向工程方面提高后下一个目标。
至关重要的是,论文还提醒读者,同样的AI代理可以用于防御以修补漏洞。为了减轻来自易于自动化的DeFi攻击的系统性金融威胁,Rausis为政策制定者和监管者提出了三步行动计划:AI监督、新的审计标准和全球协调。
- 这项研究揭示了关于AI代理的什么? 像GPT-5和Claude这样的AI模型在模拟中利用了价值460万美元的智能合约。
- 为什么这种风险在全球范围内升级? 漏洞利用的代币成本下降了70%,使得攻击成本更低,且在各个地区更具可扩展性。
- 财务影响是否可能超出DeFi? 专家警告,实际损失可能每次漏洞利用达到5000万到5亿美元,全球暴露可能每年高达200亿美元。
- 监管者和开发者如何应对? 研究人员呼吁对AI进行监督、加强审计标准以及跨境协调,以保护系统。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。