大家好,我是小艾,欢迎回到《AI有点意思》。
上一期,我们聊了如何通过提示词工程给AI下达清晰的指令,让它成为一名优秀的实习生。但在处理真正复杂的问题时,你可能会发现,光是指令清晰还不够。比如,你问AI一个听起来并不难的问题:爸爸现在30岁,妈妈28岁,请问多少年后,他俩的平均年龄会是35岁呢?
如果直接提问,一些AI可能会不假思索地给出一个错误的答案,比如胡乱计算一通。但是,如果你在问题前加上一句神奇的咒语——请一步一步地思考——结果往往会大不相同。它可能会这样回答:第一步,设x年后。第二步,那时爸爸年龄是30+x,妈妈是28+x。第三步,他们的平均年龄是(30+x + 28+x)/2 = (58+2x)/2。第四步,令这个式子等于35,即(58+2x)/2=35。第五步,解方程,得到x=6。
看,答案正确了,而且过程清晰。这个神奇的变化,就引出了我们今天要解密的两个核心概念:思维链和上下文窗口。它们关乎如何让AI进行深度思考,以及它的思考草稿纸有多大。
首先,我们来深入聊聊这个咒语背后的力量——思维链。
它的英文名叫Chain-of-Thought,简称CoT。你可以这样理解:直接让AI输出最终答案,就像是要求一位心算高手瞬间报出复杂方程的解。即使他能力再强,也容易因为一步跳得太快而出错。
而请一步一步思考这个要求,本质上是邀请AI把它内心的推理过程像写草稿一样,展示出来。这带来了两个巨大的好处:
第一,对AI自己而言,把问题分解成多个连续的、简单的中间步骤,每一步都只依赖上一步的结果和已知条件,这大大降低了单次跳跃的难度和出错概率。这就像我们解数学题,在草稿纸上一步步演算,远比心算来得可靠。
第二,对我们人类用户而言,我们终于可以监督AI的思考过程了。我们能看清它的逻辑是从哪里开始跑偏的,是在理解题意时就错了,还是在计算时粗心了。这让我们不仅能得到一个答案,更能评估这个答案的可靠性,甚至在它出错时进行干预和纠正。
所以,思维链技巧是我们在处理数学计算、逻辑推理、复杂规划或多步骤分析等问题时的必备工具。它不是一个投机取巧的小花招,而是引导AI运用其庞大知识进行系统性、结构化思考的关键方法。
那么,随之而来的一个问题是:AI在一步一步思考时,这些思考的步骤、中间的草稿,都写在哪里呢?这就要说到AI那项至关重要的、却又有限制的硬件——上下文窗口。
你可以把上下文窗口想象成AI面前一张固定大小的、用来打草稿和看资料的工作记忆画布。这张画布的大小,就是用Token来衡量的,比如4K、32K、128K等等。我们之前讲过,Token是AI的文字基本单位。
这张画布上要同时放下很多东西:
你给它的系统指令和角色设定,比如你是一个严谨的数学老师。
你本次提问的问题和历史对话记录。
它自己生成的一步一步的思维链草稿。
你或许还会粘贴进去让它参考的长篇文档、资料。
这张画布的总面积,也就是Token容量,是固定的。这意味着,如果思维链写得太长,或者你塞进去的参考文档太大,就可能会挤占其他内容的空间,甚至最早输入的内容会被挤出画布,导致AI忘记了最初的设定或对话开头。
这就是为什么模型会有一个上下文长度的限制。它决定了:你和AI的一场对话能持续多长而不失忆?它能深入地进行多少步的复杂推理?它能一次性阅读并分析多长的文档?
理解了上下文窗口的有限性,一个更高级的协作技巧就浮出水面了——上下文工程。这可以说是提示词工程在长文本、多轮对话场景下的进阶版。
既然这张草稿纸又贵又小,我们该如何最精巧地利用它呢?比如:在开始复杂任务前,是应该先花大量篇幅设定一个详细的角色,还是先塞入核心的参考资料?当处理一本电子书时,是应该一次性全部输入,还是应该分章节摘要,再基于摘要进行问答?如何精简我们的提问和AI的中间输出,为更重要的思考和最终答案保留空间?
这些关于如何在有限工作记忆内,最优地组织信息输入、引导思考过程、管理输出结构的学问,就是上下文工程。它要求我们不仅是下达指令的人,更要成为AI思考环境的建筑师。
总结来说,今天我们一起揭开了AI深度思考的幕后机制。思维链是我们引导AI展示其推理过程、化繁为简的核心技巧,让它的思考变得可追溯、可验证。而上下文窗口则是承载这一切思考的现实基础——一块大小固定、需要精打细算使用的工作记忆画布。这两者的结合,让我们得以管理AI的思考深度与广度,在它有限但强大的工作记忆中,协作完成从简单问答到复杂项目规划的种种任务。掌握了它们,你与AI的协作,就从简单的问答,迈入了真正意义上的共同思考的新阶段。
我是小艾,感谢收听本期《AI有点意思》,我们下期再见。
