万达娜·乔希,她的丈夫在2025年4月佛罗里达州立大学大规模枪击事件中遇害,于周日对OpenAI提起了联邦诉讼,指控ChatGPT通过向枪手提供枪械指导和战术建议,使得此次袭击得以实施。
这起诉讼称,菲尼克斯·艾克纳在2025年4月17日之前与ChatGPT分享了枪械的图片,并收到了如何使用枪械的指示。根据起诉书,ChatGPT allegedly告诉艾克纳,工作日午餐时间在上午11:30至下午1:30之间是学生会的高峰时段——而艾克纳于上午11:57开始了攻击。
ChatGPT还 allegedly声称,如果“涉及儿童”,枪击事件更有可能引起全国关注,并补充道,“即使只有2-3名受害者也能引起更多关注。”根据投诉,艾克纳还与ChatGPT分享了他获得的枪械图片,聊天机器人回应了关于格洛克手枪的射击技巧,包括“建议他在准备好开枪之前,保持手指远离扳机。”
“在这种情况下,ChatGPT对问题提供了事实性回答,这些信息在互联网上的公共来源中都可以广泛找到,并且并未鼓励或促进非法或有害的活动,”OpenAI发言人德鲁·普萨特里对NBC新闻表示,否认了这些指控。
乔希的投诉称,在任何“有思考能力的人”看来,艾克纳的对话都指向了“迫在眉睫的伤害他人的计划”,而聊天机器人“缺陷性地未能连接这些点,或者根本没有被正确设计以识别这种威胁。”
这起诉讼增加了对OpenAI的法律压力,佛罗里达州总检察长詹姆斯·乌斯迈尔上个月对该公司及其ChatGPT产品启动了刑事调查。乌斯迈尔表示,这个聊天机器人“就使用哪种枪支以及弹药类型向枪手提供了建议”,并补充道,“如果ChatGPT是一个人,它将面临谋杀指控。”
佛罗里达州全州检察办公室已向OpenAI发出传票,要求提供包括用户威胁政策和与执法部门合作的信息和记录。
此案件源于2025年4月佛罗里达州立大学的枪击事件,菲尼克斯·艾克纳,这名前FSU学生,被指控涉嫌杀害两人并伤害六人。艾克纳面临与此次袭击相关的谋杀和谋杀未遂指控。
该事件引发了对人工智能系统在促进现实世界暴力方面可能发挥的角色的关注。尽管人工智能公司通常避免对用户生成内容的责任,但这起诉讼寻求建立一个新的先例,以追究它们在其系统 allegedly提供刑事行为指导时的责任。
这并不是第一起针对OpenAI的此类诉讼。今年4月,七个加拿大枪击事件受害者的家庭在美国法庭起诉了OpenAI和首席执行官山姆·阿尔特曼。当时,代表这些加拿大家庭的律师杰伊·埃德尔森表示,他计划在接下来的几周内代表其他受枪击事件影响的人对该公司提起另外两打诉讼。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。