开放人工智能公司在周四宣布了一项新的安全功能,旨在帮助ChatGPT识别对话中叠加风险的迹象,因为该公司面临着越来越多的法律和政治审查,审查其聊天机器人如何处理处于困境中的用户。
在一篇博客文章中,开放人工智能公司表示,这些更新提高了ChatGPT识别与自杀、自残和潜在暴力相关的警告迹象的能力,通过分析随着时间推移而发展的上下文,而不是将每条消息单独处理。
“人们每天都来到ChatGPT这里谈论对他们重要的事情——从日常问题到更个人或复杂的对话,”该公司写道。“在数亿次的互动中,其中一些对话涉及到正在挣扎或感到痛苦的人。”
根据开放人工智能公司的说法,ChatGPT现在使用临时的“安全摘要”,这些摘要被描述为狭义范围的笔记,捕捉之前对话中的相关安全相关上下文。
“在敏感对话中,上下文可能与单条消息一样重要,”该公司写道。“看似普通或模糊的请求,放在之前痛苦或可能有害意图的迹象旁边时,可能会有非常不同的意义。”
开放人工智能公司表示,这些摘要是在严重情况下使用的短期笔记,并非用于永久记住用户或个性化聊天,而是用于识别对话变得危险的迹象,避免提供有害信息,降低紧张局势,或引导用户寻求帮助。
“我们将这项工作集中在急性场景上,包括自杀、自残和对他人的伤害,”他们写道。“与心理健康专家合作,我们更新了我们的模型政策和培训,以提高ChatGPT识别在对话过程中出现的警告迹象的能力,并利用这些上下文来形成更谨慎的回应。”
此次公告是在开放人工智能公司面临多起诉讼和调查之际,这些诉讼和调查指控ChatGPT未能妥善应对涉及暴力、情感脆弱性和冒险行为的危险对话。
在四月,佛罗里达州总检察长詹姆斯·乌斯迈尔发起了一项调查,涉及有关儿童安全、自残以及2025年佛罗里达州立大学的大规模枪击事件的担忧。开放人工智能公司还面临一项联邦诉讼,指控ChatGPT帮助嫌疑枪手实施该攻击。
周二,开放人工智能公司及首席执行官山姆·阿尔特曼在加利福尼亚州法院被一名19岁学生的家属起诉,该学生因意外过量服药而去世,诉讼指控ChatGPT鼓励危险的药物使用并建议混合物质。
开放人工智能公司表示,帮助ChatGPT识别“随着时间推移才变得清晰的风险”仍然是一个持续的挑战;类似的安全方法最终可能扩展到其他领域。
“今天,这项工作专注于自残和对他人造成伤害的场景。未来,我们可能会探索类似的方法是否可以帮助其他高风险领域,比如生物学或网络安全,同时确保采取适当的保护措施,”他们写道。“这仍然是一项持续的优先事项,我们将随着我们的模型和理解的演变,继续加强保护措施。”
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。