当我们每天使用GPT、Claude这些大语言模型时,我们真的知道它们是怎么思考的吗?我们输入一个查询,模型给出精准的回答,但是中间的决策过程,却像一个完全封闭的黑盒一样,我们只能看到输入和输出,对内部的计算逻辑却一无所知。今天我们要解读的这篇来自OpenAI的论文,恰恰为打破这个黑盒提供了一种全新的思路,通过训练权重稀疏的Transformer模型,让大模型的内部计算电路变得人类可理解。聊天讨论群,微信群二维码,可加个人微信gxjdian入群