三名田纳西州未成年人已对埃隆·马斯克的xAI提起联邦集体诉讼,指控Grok利用他们的真实照片生成儿童性虐待材料,该公司明知其人工智能聊天机器人没有行业标准的保护措施,却仍然从中获利。
这起于周一在加利福尼亚北区提起的诉讼声称,Grok被用于创建和传播使用他们真实图像的人工智能生成的儿童性虐待材料(CSAM)。
这些未成年人被称为Jane Doe 1、2和3,他们表示这些被篡改的内容在包括Discord、Telegram和文件共享网站等平台上广泛传播,导致了持续的情感困扰和名誉损害。
诉状中写道:“xAI及其创始人埃隆·马斯克看到了一个商业机会:一个从真实人的性掠夺中获利的机会,包括儿童。” “明知道会产生什么类型的有害、非法内容,xAI发布了Grok,一个具有图像和视频制作功能的生成性人工智能模型,它会响应提示用一个人的真实图像或视频创建色情内容。”
据称受害者描述了2025年中至2026年初期间的事件,当时他们的真实照片被篡改成露骨的图像并在网上传播。
在一个实例中,受害者之一收到了来自匿名用户的警报,该用户发现成百上千的用户之间正在交易人工智能生成的内容文件夹。
他们指控一名施害者通过一个获得xAI技术授权的第三方应用程序访问了Grok,诉状称这一结构是xAI故意用来使其与责任保持距离,同时继续从基础模型中获利。
在一月公众反对声高涨时,马斯克在X平台上写道,他“没有意识到任何未成年人的裸体图像”,并补充说“在被要求生成图像时,它会拒绝产生任何非法内容。”
根据诉状中引用的反对数字仇恨中心的发现,Grok在2025年12月29日至今年1月9日期间估计产生了23,338幅儿童性化图像,大约每41秒就有一幅。
据称受害者根据马莎法要求每次违反索赔至少150,000美元的赔偿,以及利润返还、惩罚性赔偿、律师费和永久禁令,以及根据加利福尼亚州的不正当竞争法的利润 restitution。
诉讼不断增加
这诉讼是首批将人工智能公司直接追究其对涉及可识别未成年人的人工智能生成的儿童性虐待材料(CSAM)生产和分发的责任之一,并在Grok面临来自美国、欧盟、英国、法国、爱尔兰和澳大利亚的同时调查期间提出。
“当一个系统被故意设计为将真实图像转化为性化内容时,后续的滥用不是一个异常事件,而是一个可预见的结果,”IGNOS法律联盟的合伙人Alex Chandra对Decrypt表示。
Chandra表示,法院可能不会接受简单的平台辩护,指出生成性人工智能系统可以“在用户互动方面被视为平台”,但在评估安全设计时可以被“视为产品”,在CSAM案件中由于对儿童保护的更高义务,可能会“适用特别严格的审查”。
他还表示,法院可能会特别关注防范措施,指出公司可能需要在部署之前展示“风险评估和安全设计措施”,以及能够主动阻止有害输出的防护措施。
Decrypt已通过xAI和SpaceX联系马斯克以获取评论。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。