第21期丨ResNet突破深度极限白话-大模型

第21期丨ResNet突破深度极限

14分钟 ·
播放数27
·
评论数0

【第21期】自从2012年AlexNet开启了深度学习的狂欢,整个AI界都坚信网络越深模型越强。可是当层数堆叠到三五十层时,大家却撞上了一堵令人绝望的叹息之墙,也就是网络退化。模型非但没有变聪明,反而越学越笨。

本期星科技将带你认识这位打破僵局的中国天才学者何恺明。我们将用一个极其接地气的职场企划案审批比喻,为你硬核拆解他那大道至简的天才设计,ResNet残差网络。看一条极简的VIP直达电梯通道,如何保住深层网络的信息不丢失,并在2015年的ImageNet大赛上以152层的恐怖深度历史性地超越人类肉眼识别率。

更重要的是,这套跨越时代的钢铁骨架,至今依然流淌在ChatGPT和DeepSeek等前沿大语言模型的血液中。

期待你在评论区留下你的思考,咱们一起探讨。

  • 00:00 深度学习的新信仰:回顾AlexNet开启的“网络越深,模型越强”时代。
  • 00:25 2014年ImageNet双雄会:VGG与GoogLeNet的巅峰对决,离人类水平仅一步之遥。
  • 01:22 撞向“叹息之墙”:当层数堆叠,模型为何在训练集上离奇“变笨”?
  • 02:32 状元何恺明的硬核人生:从广东满分状元到计算机视觉领域的顶级学者。
  • 04:09 解密ResNet核心逻辑:抛弃H(x),改学“残差”F(x)的天才变通。
  • 05:10 大白话拆解:如果模型训练是“解方程”,参数规模到底有多恐怖?
  • 09:02 职场视角看退化:当CEO遇上层层加戏的“中间层”,原稿的闪光点是如何丢掉的?
  • 10:18 恒等映射与保底机制:ResNet如何为深度网络建立性能的“绝对下限”。
  • 11:49 152层的神迹:AI首次在准确率上超越人类,残差思想如何渗透进今天的Transformer。
  • 13:35 下期预告:从静态空间到流动时间,开启RNN与序列数据的新篇章。