两个月前,纽约的一位联邦法官裁定,关于诈骗被告与Anthropic的Claude的私人对话是检察官可以利用的公平证据。现在,法律行业仍在快速消化这意味着什么。
此后,超过十家主要美国律师事务所发布了客户警告,警告与像Claude和ChatGPT这样的AI聊天机器人进行的对话在涉及法律事务时不受法律保护。有些律师事务所更进一步:现在律师事务所直接将这种警告嵌入到与客户签署的合同中,甚至在提供代理之前。
根据路透社的报道,纽约的Sher Tremonte律师事务所—定期为白领犯罪被告提供辩护—在三月份的聘用协议中增加了语言,指出“向第三方AI平台披露特权通信可能构成放弃律师-客户特权。”这被认为是首批将法院裁决转化为客户端正式合同义务的律师事务所之一。
“我们告诉客户:在这里你应该谨慎行事,”纽约Kobre & Kim的律师Alexandria Gutiérrez Swette对路透社表示。
其他律师事务所正在急于设定护栏。路透社报道,O'Melveny & Myers等事务所已经告知客户只使用“封闭式”的企业级AI系统,并承认即使是企业AI在这一问题上仍然在法庭上大部分未经过测试。
Debevoise & Plimpton更进一步提供了战术建议:如果律师具体指导客户使用AI工具,客户应该在聊天机器人提示中说明。该事务所建议写“我是在X诉讼的律师指导下进行此研究。”这个想法似乎是在设定条件,以援引Kovel原则,该原则可以将律师-客户特权扩展到作为律师代理人的非律师。
震动法律实践的裁决
这种紧迫感源于美国诉Heppner案,该案件于二月份由纽约南部地区法官Jed Rakoff裁定。破产金融服务公司GWG Holdings前董事长Bradley Heppner因证券欺诈和电信欺诈等五项联邦指控被起诉。在收到大陪审团传票后,他单独使用了Anthropic的Claude来规划他的辩护—生成了31份后被FBI从他家中查获的文件。
Rakoff法官裁定这些文件不能被保护,原因有三:Claude不是律师,Anthropic自身的隐私政策保留与包括政府监管机构在内的第三方共享用户数据的权利,而Heppner的行为是独立的,而不是在律师的指示下进行的。法官写道,“AI用户与像Claude这样的平台之间不可能存在‘律师-客户关系’。”
该裁决作为美国首个关于AI和律师-客户特权的书面意见发布。它也成为了一个警钟,响起在一个一直安静观察客户转向聊天机器人以获取法律指导的行业,且没有考虑这些对话在法庭上的后果。
Rakoff本人对此留有余地。他在Heppner听证会上指出,如果律师指示被告使用Claude,这一AI“可能在某种程度上可以被说是表现得像一个高度训练的专业人员,可能作为律师在律师-客户特权保护下的代理人。”这一观点现在成为设计新AI协议的律师事务所的一个生命线。
法庭的局势仍未完全明朗。例如,在Warner诉Gilbarco案中,法院裁定自我辩护的原告的ChatGPT对话作为工作产品受到保护,因为AI工具是“工具,而不是人”,与软件共享信息不同于向对手披露信息。
科罗拉多州的一家法院在3月30日强化了这种逻辑,在Morgan诉V2X案中,也保护了一位自我辩护当事人的AI工作产品,尽管进一步命令原告披露他使用了哪种AI工具,并禁止将保密的调查材料输入允许数据训练的平台。
这一模式正在成形:如果你是一个被代理的当事人,自己决定使用消费型AI聊天机器人,你就暴露在外。如果你在民事案件中自我辩护,你可能会有更多的保护。这两种情境之间的差异现在成为美国证据法中较为尖锐的分界线。
MoloLamken的Justin Ellis告诉路透社,更多的裁决最终将澄清何时AI聊天可以作为证据使用。在那之前,法律行业版本的这种清晰正体现在聘用信和客户电子邮件中,以及两年前看起来很奇怪的建议中:仔细考虑你在聊天机器人中输入的内容,因为可能会有人阅读它。
洛杉矶高等法院则在试点AI工具供法官处理案件摘要和草拟裁决—同样的技术正在法庭的法律工作流程中进入,同时律师们则在努力从客户方面管理它。Decrypt之前还报道了关注隐私的AI替代方案,避免集中对话数据,这一产品类别刚刚获得了一个显著的现实世界测试案例。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。