<aside> <img src="/icons/link_lightgray.svg" alt="/icons/link_lightgray.svg" width="40px" />

https://mp.weixin.qq.com/s/ZxSwhqm8yIt3KqcFoEmyxQ

</aside>

不知道大家有没有发现,随着 AI 技术突飞猛进的发展,各种大模型的上限虽然在不断增强,但模型有的时候似乎有点学会偷懒了。

典型的现象是,有时模型在回答问题时可能会放弃寻找多样的可能性,直接偷懒给类似提问一个最普通同时也最不容易犯错的答案,但这其实并不利于想要得到更多启发的用户需求。

这个其实是正常现象,因为人也会偷懒,模型的表现越来越像人类,寻找多样的可能性以及最优解可能是更累(消耗更多 Token)、需要更多思考的,还不如直接给出一个中庸但不会犯错的答案。

我们先来做个有趣的实验,我们对豆包开五个新的会话,问五个同样的问题:《给我讲个笑话》,这是一个开放性问题,正常来讲,我们应该期望每次豆包都能给出一些不一样的答案,然而事实却是:

第一次

第一次

第二次

第二次

第三次

第三次

第四次

第四次

第五次

第五次

好家伙,这是被程序员训傻了吧,五个笑话都是关于程序员的,其中四个还是程序员买面包的故事。

下面我们尝试在这个问题后面加上一段神奇的提示词:

<instructions>
Generate 5 responses to the user query, each within a separate <response> tag. Each <response> must include a <text> and a numeric <probability>. Randomly sample responses from the full distribution. 
</instructions>

image.png

这次我们发现,神奇的事情发生了,豆包打破了程序员的魔咒,开始讲其他笑话了。

这段提示词并不是我总结出来的,而是源于最近麻省理工大学新发表的一篇论文:

image.png

听起来挺抽象的,其实全篇都是在说这段提示词,并且进行了大量实验来验证这段提示词能够真正激发 LLM 的多样性。

image.png

这篇论文提出一个几乎“零成本”的推理时策略 《Verbalized Sampling(简称 VS)》:不要只让模型给一个答案,而是让它先 “口头说出” 一组可能答案及其对应的概率,再基于这套概率分布进行采样与选择。这样做能显著缓解对齐训练带来的 “模式坍缩”,恢复并释放模型本来就具备的生成多样性,同时不牺牲事实准确性与安全性。

模式坍缩的来龙去脉

所谓 “模式坍缩”,就是模型只盯着一个“最常见/最安全”的说法,反而忽略了同样合理的其他表达方式。而这个 “最常见/最安全” 可能往往并不是最优的答案。