【第15期】微积分里的链式法则早在牛顿时代就有了,为什么反向传播算法却让全世界最聪明的科学家整整迟到了20年?🤔
本期视频,我们继续拆解神经网络的演进史。这不仅仅是算法的迭代,更是一场关于打破偏见、跨越低谷的英雄史诗。从1943年的MCP模型到2012年的AlexNet爆发,我们看看这“消失的20年”里到底发生了什么。
📺 本期硬核知识点:
- 三重思想钢印: 是什么锁死了AI发展的咽喉?(生物学执念、局部最优恐惧、学术偏见)
- 激活函数进化史: 为什么神经网络必须“弯”一下?从Sigmoid的梯度消失,到ReLU的简单粗暴,数学上的“不完美”如何成就了工程上的奇迹?
- AI守夜人: 杰弗里·辛顿(Geoffrey Hinton)如何带领杨立昆、本吉奥穿越寒冬?OpenAI首席科学家Ilya当年的高光时刻。
📚 关于《白话大模型》系列: 我是数据科学家、科技公司CTO。这是我正在撰写的一本AI科普书的视频版,旨在用最通俗的语言,把大模型掰开揉碎讲给你听。
🎉 特别预告: 书稿终于写完了!最后一章关于Diffusion和Transformer的内容写得很过瘾,预计明年春天面世。感谢大家长久以来的陪伴!
如果觉得内容硬核且有用,请一键三连支持一下!这期20分钟的长视频,需要你的鼓励!🙌
#AI科普 #深度学习 #大模型 #辛顿 #激活函数 #ReLU #反向传播 #人工智能史

