《华尔街日报》:在特朗普切断关系后,安ythropic的人工智能在伊朗袭击中被使用。

CN
Decrypt
關注
3 小時前

在特朗普总统命令联邦机构停止使用Anthropic的AI工具数小时后,美国军方对伊朗发动了一次重大的空袭,此次空袭 reportedly 依赖于该公司的Claude平台。


与此事相关的人士证实,美国中央司令部在对伊朗的空袭中使用了Claude进行情报评估、目标识别和模拟战斗场景,并在周六的华尔街日报中报道。


尽管在周五,有特朗普的指令要求各机构在与五角大楼就如何使用商业开发的AI系统的谈判破裂后,开始为期六个月的Anthropic产品逐步淘汰。


Decrypt已联系国防部和Anthropic以寻求评论。


“当AI工具已经嵌入实时情报和模拟系统时,最高层的决定不会立即在地面上转化为变化,”LLM成本跟踪器TknOps.io的联合创始人兼首席执行官Midhun Krishna M告诉Decrypt。“有一个滞后——技术的、程序的和人性的。”


“一旦一个模型嵌入到机密情报和模拟系统中,您面临的是沉没的集成成本、再培训、安全重新认证和并行测试,因此六个月的逐步淘汰听起来可能果断,但真正的财务和操作负担要深得多,”Krishna补充道。


“国防机构现在将优先考虑模型的可移植性和冗余性,”他说。“没有一个认真军方的操作员会希望在危机中发现其AI层是政治脆弱的。”


Anthropic首席执行官达里奥·阿莫代伊在星期四表示,该公司不会取消阻止Claude被用于大规模国内监视或完全自主武器的安全措施。


在国防部要求承包商允许其系统用于“任何合法用途”后,阿莫代伊写道:“我们不能良心上同意他们的请求。”


特朗普随后在Truth Social上写道:“Anthropic的左派疯子们在试图强迫战争部时犯下了灾难性的错误,”并命令各机构“立即停止”所有使用Anthropic产品的行为。


国防部长皮特·海格塞斯随后Anthropic指定为“国家安全的供应链风险”,这一标签以前仅限于外国对手,禁止五角大楼的所有承包商和合作伙伴与该公司开展商业活动。


Anthropic称这一指定为“前所未有”的,并誓言在法庭上挑战,称其“以前从未公开应用于一家美国公司。”


该公司补充说,据他们所知,这两个有争议的限制至今尚未影响任何政府任务。


“争论并不是关于是否会在国防中使用AI,这已经在发生,”Krishna补充道。“而是那些前沿实验室是否能够在其系统成为‘任何合法用途’合同下的操作资产后,维持差异化的安全监管。”


OpenAI迅速采取行动填补空白,首席执行官萨姆·阿尔特曼在周五晚上宣布与五角大楼达成协议,覆盖机密军事网络,声称它包含了Anthropic所寻求的相同安全措施。



当被问及五角大楼对Anthropic的实际黑名单是否为未来与AI公司间的争端设立了令人担忧的先例时,OpenAI首席执行官萨姆·阿尔特曼在X上回应道:“是的,我认为这是一个极其可怕的先例,我希望他们以不同的方式处理。”


“我也认为Anthropic处理得不好,但作为更强大的当事方,我认为政府应该承担更多责任。我仍然对更好解决方案抱有希望,”他补充道。


同时,近500名OpenAI和谷歌的员工签署了一封公开信,警告五角大楼试图将AI公司互相对立。


免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接