社交媒体巨头Twitter表示,他们在其平台上防止传播儿童性虐待材料(CSAM)的新系统“无缝部署”,测试了非营利组织Thorn开发的技术。
Twitter安全账号在周二宣布,他们参与了该组织基于人工智能的Safer解决方案的测试版,以主动检测、删除和报告包含儿童性剥削的基于文本的材料。
Twitter安全账号写道:“通过与Thorn的持续合作,我们正在做更多工作来创建一个安全的平台。这项工作是基于我们不懈的努力,旨在打击儿童在即将面临危险的高危内容。”
“这个自托管的解决方案已经无缝部署到我们的检测机制中,使我们能够聚焦于高风险账户。”它继续说道。
Thorn由演员黛米·摩尔和阿什顿·库彻于2022年创立,致力于开发工具和资源,重点关注保护儿童免受性虐待和剥削。今年四月,谷歌、Meta和OpenAI签署了Thorn和另一非营利组织All Tech is Human发布的承诺书,承诺在其人工智能模型周围执行监管措施。
“我们从测试版中学到了很多东西,”Thorn的数据科学副总裁丽贝卡·波特诺夫告诉Decrypt。“虽然我们事先知道儿童性虐待表现在各种类型的内容中,包括文本,但我们在这次测试中清楚地看到了机器学习/AI对文本的实际影响。”
波特诺夫解释说,Safer AI模型包括一个在儿童安全相关文本上训练的语言模型和一个为文本序列生成多标签预测的分类系统。预测分数从0到1,表示模型对文本与各种儿童安全类别的相关性的信心程度。
虽然波特诺夫无法透露哪些其他社交媒体平台参与了Safer产品套件的测试版,但她表示其他公司的反应都是积极的。
“一些合作伙伴分享说,该模型特别适用于识别有害的儿童性虐待活动,优先处理报告的消息,并支持对已知不良行为者的调查,”波特诺夫说道。
由于自2022年ChatGPT推出以来生成式AI工具的泛滥,英国互联网观察基金会等互联网监督组织已经发出警报,称在暗网论坛上流传着大量由AI生成的儿童色情材料,称这些非法材料可能会淹没互联网。
Twitter安全团队的公告是在欧盟要求该公司解释有关“减少内容审核资源”的报道几个小时前发布的。
Twitter提交给欧盟监管机构的最新透明度报告称,埃隆·马斯克的成本削减措施自2023年10月以来已经将平台的内容审核团队规模减少了近20%,并将监控的语言数量从11种减少到7种。
“委员会还寻求进一步了解与生成式AI工具对选举过程、非法内容传播和基本权利保护的影响相关的风险评估和缓解措施的详细信息,”要求补充道。
欧盟于2023年12月对Twitter启动了正式程序,因担心该公司在多个领域违反了数字服务法案,包括风险管理、内容审核、“黑暗模式”和研究人员的数据访问。
委员会表示,Twitter必须在5月17日之前提供所请求的信息,并在5月27日之前回答额外的问题。
由Ryan Ozawa编辑。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。