Anthropic已向联邦法院提起诉讼,抗击唐纳德·特朗普政府的大规模黑名单,声称政府将这家人工智能初创公司标记为国家安全威胁,以报复其拒绝放宽安全协议。
该诉讼于星期一在美国加利福尼亚北区地方法院提交,挑战特朗普总统在二月份指示联邦机构停止使用Anthropic的技术后采取的行动。这一决定是基于Anthropic首席执行官达里奥·阿莫代伊的公开评论,他表示公司不会遵从五角大楼要求无限制访问Claude的请求。诉状将多个联邦机构和高级官员列为被告,包括国防部长皮特·赫格塞斯、财政部长斯科特·贝森特和国务卿马尔科·鲁比奥。
“宪法不允许政府利用其巨大的权力惩罚公司因为其受保护的言论,”Anthropic的律师在诉状中说。“没有任何联邦法规授权这里采取的行动。Anthropic将司法作为最后的手段,以维护其权利并制止行政机关的非法报复行动。”
争议始于一月份,当时五角大楼官员要求人工智能合同方允许他们的系统用于“任何合法使用”,包括军事应用。虽然Anthropic到那时已经与国防部签署了一份价值2亿美元的合同,但它拒绝取消两个禁止使用Claude进行对美国人进行大规模国内监视或完全自主致命武器系统的安全措施。
“受挑战的行动对Anthropic造成了直接和不可弥补的伤害;对将受到言论寒蝉效应的其他人;对那些能够继续从公司创造的经济价值中受益的人;以及对一个应当进行关于人工智能对战争和监视意味着什么的充分对话和辩论的全球公众,”Anthropic的律师在诉状中表示。
对于包括SingularityNET首席执行官本·戈岑尔在内的人工智能开发者来说,这一称谓是一个奇怪的选择,并不符合供应链威胁的典型含义,这通常是指那些可能包含隐藏恶意软件、病毒或间谍软件的敌对软件。
戈岑尔对Decrypt说:“Anthropic不愿让他们的软件用于自主杀戮或大规模监视似乎并不会构成这样的风险。那只是意味着如果你想将软件用于自主杀戮或大规模监视,那就去购买其他人的软件。因此,把它视为供应链风险的逻辑让我困惑。”
戈岑尔表示,各大人工智能模型之间的差异可能会限制这一决定的实际影响。
“最终,Claude、ChatGPT和Gemini之间并没有太大的差别,”他说。“只要这些顶级系统中的任何一个被美国政府使用,这都是一回事。而情报机构在最高机密的掩护下,会随心所欲地使用这些软件。”
Anthropic请求法院宣布政府的行为违法,并阻止实施“供应链风险”这一标签,这妨碍了联邦机构和五角大楼合同方与该公司的商业活动。
“受挑战的行动没有有效的理由,”诉状中写道。“法院应当宣布其为违法,并禁止被告采取任何实施这些行动的步骤。”
Anthropic没有立即回应Decrypt的评论请求。
即便在将Anthropic认定为国家安全风险后,Claude仍在正在进行的军事实行动中被使用,包括美国中央司令部用其帮助分析情报和确定目标,在对伊朗的打击中。
凯托研究所技术政策高级研究员詹妮弗·哈德尔斯顿在与Decrypt分享的声明中表示,此案件引发了关于国家安全声明被用来证明政府行动时的宪法保护的担忧。
“虽然法院在过去对质疑政府的国家安全关切的声明一直持谨慎态度,但这个案件的情况确实突显了如果不对这些声明的基本考虑进行彻底审查,对美国人的第一修正案权利的真正风险,”她说。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。