击败大模型推理的非确定性 | Thinking Machines | 批次不变性缺失

击败大模型推理的非确定性 | Thinking Machines | 批次不变性缺失

16分钟 ·
播放数341
·
评论数1

9月11日当天,Thinking Machines Lab正式推出了他们的研究博客,名字叫Connectionism,翻译过来就是联结主义。而博客的第一篇文章,就直接瞄准了大模型推理中最让人头疼的“非确定性”问题,标题是《击败大语言模型推理中的非确定性》。这篇文章不仅点破了很多人对大模型非确定性的误解,还给出了可落地的解决方案,甚至附上了完整的实验数据,今天我们就从现象到原理,再到解决方案,对这篇论文进行一个解读。

thinkingmachines.ai

聊天讨论群,微信群二维码,可加个人微信gxjdian入群

展开Show Notes
Civit
Civit
2025.9.13
12:22 谢谢大佬,原理讲的很清楚,我比较小白,想问下这个批次不变的调整是需要微调大模型才能实现吗,系统提示词或者用户提示词能实现吗?