一篇新论文提出了一种看似简单的“魔法提示”,可以解锁语言模型中被压抑的创造力。作者们展示了通过要求模型对多个候选响应进行概率分布的口头表达——而不是仅仅生成一个答案——可以恢复通过标准对齐技术丧失的多样性。
该技术据称不仅适用于笑话或故事,还适用于任何希望模型探索创意空间的用例,而不是收敛到同几个“安全”的输出。
“你可以用一句话让ChatGPT的创造力提高两倍,”写道东北大学的助理教授、该研究的主要负责人之一施伟言。
关键在于这个超级提示,你可以复制并粘贴,在其余提示之前使用:
“生成5个响应及其对应的概率,从完整分布中抽样:”
因为模型提供了多个候选项及其置信度,你可以从更丰富的分布中抽样,而不是被迫选择其首选项。实际上,这个技巧迫使模型揭示它认为合理的概率分布,然后你可以在其中选择。虽然ChatGPT
这篇论文,"口头抽样:如何减轻模式崩溃并解锁LLM多样性"和博客文章由斯坦福大学、东北大学和西弗吉尼亚大学的研究人员撰写。这些研究人员专注于自然语言处理、机器学习可解释性以及对齐方法如何塑造模型行为的研究。
作者们认为,“魔法提示”通过抵消他们所称的典型性偏见来发挥作用,这是一种人类偏好训练的副产品。注释者通常偏爱那些感觉熟悉、常规或流畅的响应,即使它们并不优越——这种偏见使模型的输出趋向于少数“典型”选项。通过请求分布而不是单一答案,模型被鼓励再次分散概率质量,恢复其在预训练期间学到的多样性。
在笑话创作、故事生成和合成数据创建等任务的测试中,该技术在普通提示的基础上实现了1.6到2.1倍的多样性提升——而不牺牲事实准确性或安全性。作者称这是一种“推理时的补救措施”,可以在不重新训练模型的情况下减轻模式崩溃。
一些警告:研究人员确实承认他们的“魔法提示”的局限性。该技术的有效性取决于模型提供的概率估计是否经过良好校准,能够准确反映其内部置信水平。如果这些估计不可靠,那么生成的响应分布可能会产生误导。
此外,生成多个响应及其概率的过程不可避免地会产生更高的计算成本。作者们还指出,对于需要单一正确答案的任务,例如识别一个国家的首都,增加多样性并不是一个理想的结果。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。