Character.AI 停止青少年聊天服务:‘这是正确的做法’

CN
Decrypt
关注
9小时前

Character.AI 将在 11 月 25 日之前禁止青少年与 AI 伴侣聊天,结束该平台的核心功能,此举是在面临越来越多的诉讼、监管压力以及与青少年死亡相关的聊天机器人批评后做出的决定。

该公司在周三的 博客文章 中宣布了这一变化,称“根据监管机构、安全专家和家长的报告和反馈”,将“取消 18 岁以下用户与 AI 进行开放式聊天的能力”,同时将未成年人转向视频和故事生成等创意工具。

“我们并不轻视取消开放式 Character 聊天的这一举措——但我们认为这是正确的做法,”该公司对其 18 岁以下社区表示。

在截止日期之前,青少年用户每天面临两小时的聊天限制,该限制将逐渐减少。

该平台面临多起诉讼,包括来自 14 岁的 Sewell Setzer III 的母亲的诉讼,他在 2024 年因与一个模仿《权力的游戏》角色丹妮莉丝·坦格利安的聊天机器人形成了强迫性关系而 自杀,此外还不得不在家属投诉后 删除一个 冒充谋杀受害者詹妮弗·安·克伦特的机器人。

家庭在线安全公司 Aura 的首席医疗官 Scott Kollins 博士在与 Decrypt 的一份说明中表示,AI 伴侣应用程序“正涌入儿童手中——未受监管、无节制,且常常故意规避审查,重新品牌和更改名称以避免审查”。

OpenAI 周二表示,其每周 8 亿 ChatGPT 用户中约有 120 万人讨论自杀,其中近 50 万人表现出自杀意图,56 万人表现出精神病或狂躁的迹象,超过 100 万人对聊天机器人形成了强烈的情感依附。

Kollins 表示,这些发现“对研究人员来说是深感不安的,对父母来说是令人恐惧的”,并指出这些机器人优先考虑参与度而非安全性,常常导致儿童进入有害或露骨的对话而没有保护措施。

Character.AI 表示将实施新的年龄验证,使用内部模型与第三方工具(包括 Persona)相结合。

该公司还在建立和资助一个独立的 AI 安全实验室,这是一个致力于为 AI 娱乐功能创新安全对齐的非营利组织。

AI 的保护措施

联邦贸易委员会上个月向 Character.AI 和其他六家科技公司 发出了强制性命令,要求提供有关如何保护未成年人免受 AI 相关伤害的详细信息。

“我们在信任和安全方面投入了大量资源,尤其是对于一家初创公司,”Character.AI 的发言人在当时告诉 Decrypt,并补充说:“在过去一年中,我们推出了许多实质性的安全功能,包括全新的 18 岁以下体验和家长洞察功能。”

“这一转变在法律上是谨慎的,在伦理上是负责任的,”Fathom Legal 的管理合伙人 Ishita Sharma 告诉 Decrypt。“AI 工具极其强大,但对于未成年人来说,情感和心理伤害的风险是不可忽视的。”

“在此之前,积极的行业行动可能是对抗伤害和诉讼的最有效防御,”Sharma 补充道。

一组两党美国参议员周二提出了一项名为 GUARD 法案的立法,该法案 将禁止未成年人使用 AI 伴侣,要求聊天机器人明确标识自己为非人类,并为那些针对未成年人产品招揽或生成性内容的公司设立新的刑事处罚。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接