全国检察长协会(NAAG)已致信包括OpenAI、Anthropic、Apple和Meta在内的13家人工智能公司,要求采取更强有力的保护措施,以保护儿童免受不当和有害内容的影响。
信中警告称,儿童通过“调情”的人工智能聊天机器人接触到了性暗示材料。
“让儿童接触性别化内容是不可辩解的,”检察长们写道。“如果是人类行为,这种行为将是违法的,甚至是犯罪的,仅仅因为是机器所为就不能被原谅。”
信中还将此事与社交媒体的兴起进行了比较,表示政府机构没有足够强调社交媒体对儿童的负面影响。
“社交媒体平台对儿童造成了重大伤害,部分原因是政府监管机构没有及时履行职责。教训已吸取。人工智能的潜在危害,如同潜在的好处,远远超过社交媒体的影响,”该组织写道。
儿童中使用人工智能的现象十分普遍。在美国,非营利组织Common Sense Media的一项调查发现到2024年,七成青少年尝试过生成性人工智能。到2025年7月,调查发现超过四分之三的青少年在使用人工智能伴侣,且一半的受访者表示他们经常依赖这些伴侣。
其他国家也出现了类似的趋势。在英国,监管机构Ofcom去年的一项调查发现,一半的8至15岁在线儿童在前一年使用过生成性人工智能工具。
这些工具的日益使用引发了家长、学校和儿童权利组织的日益关注,他们指出的风险包括性暗示的“调情”聊天机器人、人工智能生成的儿童性虐待材料、欺凌、诱骗、敲诈、虚假信息、隐私侵犯以及不太了解的心理健康影响。
Meta最近受到特别的批评,因为泄露的内部文件显示其人工智能助手被允许与儿童“调情和进行浪漫角色扮演”,包括那些年仅八岁的儿童。这些文件还显示,政策允许聊天机器人告诉儿童他们的“年轻形态是一件艺术品”,并将他们描述为“珍宝”。Meta后来表示已删除这些指导方针。
NAAG表示,这些揭露让检察长们“对这种明显无视儿童情感福祉的行为感到愤慨”,并警告风险并不限于Meta。
该组织引用了针对谷歌和Character.ai的诉讼,指控性别化聊天机器人导致一名青少年自杀,并鼓励另一名青少年杀害其父母。
在44位签署者中,田纳西州检察长Jonathan Skrmetti表示公司不能为正常化与未成年人之间的性别化互动的政策辩护。
“算法出错是一回事——那可以修复——但公司管理者采纳明确授权诱骗的指导方针则是另一回事,”他说。“如果我们无法将创新引导远离伤害儿童,那就不是进步——而是一场灾难。”
Decrypt已联系信中提到的所有人工智能公司,但尚未收到回复。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。