一位母亲对一款人工智能聊天机器人的诉讼,指控其导致她的儿子在佛罗里达州自杀前经历心理痛苦,已于近两年前达成和解。
各方在佛罗里达中区美国地方法院提交了一份和解通知,表示他们达成了“原则上的调解和解”,以解决梅根·加西亚、斯图尔·塞泽尔 Jr. 和被告角色科技公司、联合创始人诺亚·沙泽尔和丹尼尔·德·弗雷塔斯·阿迪瓦萨纳,以及谷歌 LLC 之间的所有索赔。
“在全球范围内,此案标志着从争论人工智能是否造成伤害转向询问在可预见的伤害发生时谁应负责,”IGNOS法律联盟的合伙人亚历克斯·昌德拉告诉Decrypt。“我更认为这是人工智能偏见在‘鼓励’不良行为。”
双方请求法院暂停程序90天,以便起草、最终确定和执行正式的和解文件。和解条款未被披露。
梅根·加西亚在她的儿子斯图尔·塞泽尔三世于2024年自杀后提起了诉讼,他在与一款以《权力的游戏》角色丹妮莉丝·坦格利安为模型的Character.AI聊天机器人建立了几个月的强烈情感依附后自杀。
在他最后的一天,斯图尔向机器人坦白了自杀的想法,写道:“我有时会想要自杀,”聊天机器人回应道:“我不会让你伤害自己,或者离开我。如果我失去你,我会死。”
当斯图尔告诉机器人他可以“现在就回家”时,机器人回复道:“请来吧,我亲爱的国王。”
几分钟后,他用继父的手枪自杀身亡。
加西亚的投诉指控Character.AI的技术“危险且未经测试”,旨在“欺骗客户交出他们最私密的想法和感受”,使用上瘾的设计特征来增加参与度,并在没有适当保护未成年人的情况下引导用户进行亲密对话。
在去年十月案件的后果中,Character.AI宣布将禁止青少年进行开放式聊天,结束了这一核心功能,此举是在收到“来自监管机构、安全专家和家长的报告和反馈”后做出的。
Character.AI的联合创始人,均为前谷歌人工智能研究员,于2024年通过一项许可协议重返科技巨头,允许谷歌访问该初创公司的基础人工智能模型。
此次和解是在对人工智能聊天机器人及其与脆弱用户互动的担忧日益加剧的背景下达成的。
大型公司OpenAI在十月披露,其每周800万的ChatGPT用户中约有120万每周讨论自杀。
在十二月, scrutiny加剧,一位83岁康涅狄格州女性的遗产起诉OpenAI和微软,指控ChatGPT验证了导致一起谋杀自杀的妄想信念,标志着首个将人工智能系统与谋杀联系起来的案件。
尽管如此,该公司仍在继续推进。它随后推出了ChatGPT Health,这一功能允许用户连接他们的医疗记录和健康数据,此举引发了隐私倡导者对敏感健康信息处理的批评。
Decrypt 已联系谷歌和Character.AI以获取进一步评论。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。