OpenAI于2020年发布的《Language Models are Few-Shot Learners》(即GPT-3论文)它是继《Attention Is All You Need》之后大模型时代最伟大的里程碑。
该论文不仅验证了“规模的力量”,展示了千亿级参数模型在上下文学习中的强大能力,还确立了“大模型+大数据+大算力”的Scaling Law范式**,从而引发了全球性的“大模型军备竞赛”。
此外,GPT-3论文开创了“提示工程”时代,将人机交互方式从微调转向自然语言提示,极大地降低了AI应用门槛,并对AI研究范式、产业落地、技术路线以及风险监管产生了全方位的影响,甚至促成了Meta LLaMA等开源生态的发展。
简而言之,GPT-3论文将“大模型+提示学习”从实验设想转变为可复现、可产品化、可监管的事实标准,为2020年后的生成式AI产业奠定了基础。
---
既然有了Few-Shot Learners是否还需要微调?什么情况下选择微调呢?
• 如果标注数据 < 100 条,或任务允许 5-10 % 的误差 → 先用 Few-Shot + 工程手段(Prompt Chain、Self-Critique)。
• 如果数据 > 500 条且对准确率/延迟有硬指标 → 直接上 LoRA/QLoRA,ROI 几乎总是正的。
• 如果领域极度专业(医疗、金融合规)且数据 > 10 k → 继续预训练 + 全参微调仍是 SOTA 路径。
一句话结论
Few-Shot Learners 把“零样本可用”变成了基线,却也让“微调”从重量级手术变成了可插拔的“微剂量注射”。是否微调,不再是“能不能”,而是“值不值”。

