Andrej Karpathy 是一位著名的人工智能研究员和工程师,以其在深度学习、计算机视觉和人工智能教育领域的贡献而闻名。他曾是 OpenAI 的早期成员之一,后加入特斯拉(Tesla)担任人工智能与自动驾驶视觉团队的负责人,领导 Autopilot 的神经网络开发。Karpathy 拥有斯坦福大学计算机科学博士学位,师从深度学习先驱 Fei-Fei Li(李飞飞),研究方向包括卷积神经网络和图像识别。他还以通俗易懂的 AI 教育文章与课程(如“CS231n: Convolutional Neural Networks for Visual Recognition”)著称,对推动深度学习的普及与实践产生了深远影响。
🧠 核心类比:AI = 新的计算范式(Software 2.0)
作者认为,将 AI 类比为 新的计算范式(Software 2.0)比类比为“电力”或“工业革命”更贴切。
因为两者本质上都是关于 数字信息处理的自动化。
🧩 历史回顾:Software 1.0 的自动化逻辑
如果回到上世纪 1980 年代,预测计算机对就业的影响,最关键的变量是:
任务的算法是否固定。
也就是说:
- 能否用明确、可写成程序的规则描述工作。
- 若可以(如打字、记账、人肉计算等),那么计算机很容易替代。
Software 1.0 → 自动化的是可“指定”的东西。
⚙️ 软件进化:Software 2.0 的核心特征
AI 的新范式是:
我们不再手写程序逻辑,而是 通过优化目标(objective)来搜索程序空间,利用梯度下降找到表现良好的神经网络。
因此,在这个阶段中,影响自动化可能性的关键不再是“能否指定规则”,而是:
能否验证(verify)结果。
✅ 可验证性:自动化潜力的核心指标
AI 能够高效自动化的任务,是那些可以被反复练习和评估的:
- 环境可重置(可多次尝试)
- 反馈高效(训练能快速进行)
- 奖励明确(系统能自动打分)
例子:
- 数学、编程、逻辑推理、视频识别、游戏决策等
→ 都能定义明确的对错与奖励机制,因此 AI 进步迅速。 - 创意写作、战略规划、社会常识整合
→ 难以验证,AI 的表现依然不稳定。
Software 2.0 → 自动化的是可“验证”的东西。
🔀 前沿现象:AI 进展的“锯齿边界”
AI 发展的不平衡性来自:
- 可验证任务进步飞快(甚至超越专家水平);
- 不可验证任务停滞较多(依赖模仿或通用化的“魔法”)。
这解释了为何 LLM 在编程、推理类任务中表现卓越,而在创意与现实世界常识任务上仍显不足。

