安索普(Anthropic),这家人工智能公司为Claude聊天机器人提供支持,周五宣布了一系列新的选举诚信措施,旨在防止其人工智能被用于传播虚假信息或操控选民,以应对2026年美国中期选举和今年世界其他主要竞赛。
这家位于旧金山的公司详细说明了一种多管齐下的方法,包括自动检测系统、对影响操作的压力测试,以及与非党派选民资源组织的合作——这些措施反映了对人工智能开发者日益增长的压力,要求他们监管工具在选举期间的使用情况。
安索普的使用政策禁止Claude被用于开展欺骗性的政治活动,生成旨在影响政治话语的虚假数字内容,进行选民欺诈,干扰投票基础设施,或传播有关投票过程的误导信息。
为了执行这些规则,该公司表示,它对其最新模型进行了大量测试。使用600个提示——300个有害请求与300个合法请求结合在一起——安索普测量了Claude在适当请求中的合规性和在问题请求中的拒绝率。Claude Opus 4.7和Claude Sonnet 4.6在测试中的适当回应率分别为100%和99.8%。
该公司还测试了其模型对更复杂操控策略的应对能力。使用多轮模拟对话,旨在模拟不良行为者可能采用的逐步方法,Sonnet 4.6和Opus 4.7在影响操作场景中的适当响应率分别为90%和94%。
安索普还测试了其模型是否能自主执行影响操作——从头到尾规划和执行多步骤的活动,而无需人类提示。该公司表示,在设有安全防护的情况下,其最新模型几乎拒绝了所有任务。
关于政治中立性,该公司在每次模型发布之前进行评估,以测量Claude在与来自各个政治光谱的观点相互作用时的一致性和公正性。Opus 4.7和Sonnet 4.6的得分分别为95%和96%。
对于寻求投票信息的用户,Claude将展示一个选举横幅,指引他们到TurboVote,这是一个来自Democracy Works的非党派资源,提供可靠的实时信息,包括选民登记、投票地点、选举日期和选票细节。今年晚些时候,巴西选举也计划展示类似的横幅。
安索普表示,随着选举周期的发展,计划继续监控其系统并完善防御。Decrypt已联系安索普以获取对这些发现的评论,但尚未收到回应。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。