98. 逐篇讲解机器人基座模型和VLA经典论文——“人就是最智能的VLA”张小珺Jùn|商业访谈录

98. 逐篇讲解机器人基座模型和VLA经典论文——“人就是最智能的VLA”

150分钟 ·
播放数20004
·
评论数30

今天的嘉宾是清华大学交叉信息研究院助理教授、星动纪元创始人陈建宇。他的研究和创业方向都是人形机器人。

大语言模型浪潮爆发后,学界和工业界看见了机器人从专用走向通用的可能迹象,机器人革命随之而来。其中,本轮革命最重要的是,对机器人底层架构,也就是机器人“大脑”的探索。

但通用机器人还在科学研究阶段,处于产业发展早期。这集节目,陈老师将带领大家,概览式阅读机器人基座模型和当下最前沿的架构VLA架构(Vision-Language-Action Model,视觉语言动作模型)的经典论文。

希望我们的节目能直观地帮助更多人靠近科学前线,感受技术之美,并且能直观感知当前技术拐点。

还是那句话:期待2025,我们和AI共同进步!

(因为因为,陈老师真的分享了很多很多的动图和视频,本集结合视频服用效果更佳噢!可以前往:含投屏的视频版本。嘿嘿!预祝你学得开心!学得顺利啦!)
我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)

02:30 陈建宇的研究和创业方向

04:11 讲解开始前,先提问几个小问题

17:36 当下最大变量:从专用模型到通用模型(robot foundation model)的可能性

21:12 大模型浪潮爆发后,机器人领域经历了两个阶段:从利用基础模型进行机器人研究(leveraging foundation models in robotics)到为机器人预训练基础模型(pretraining foundation models for robotics)

第一阶段:利用基础模型进行机器人研究(leveraging foundation models in robotics)

21:59 机器人传统三板块:Planning+Perception+Actuation(规划+感知+执行)——第一步,用LLM(Large Language Model,大语言模型)替代Planning

23:54 由Google Robotics团队提出的具身智能开创性论文Say Can《Do As I Can, Not As I Say: Grounding Language in Robotic Affordances》

(中文名:我能做到,而不是我说到:将语言与机器人的可供性相结合)

27:03 第二步,用VLM(Vision-Language Models,视觉语言模型)替代Perception

27:52 来自Google的论文《Inner Monologue: Embodied Reasoning through Planning with Language Models》

(中文名:内心独白:通过语言模型规划进行具身推理)

29:51 由清华和上海姚期智研究院提出的《DoReMi: Grounding Language Model by Detecting and Recovering from Plan-Execution Misalignment》

(中文名:DoReMi:通过检测和恢复规划-执行不一致来落地语言模型)

32:47 第三步,想把Actuation进一步自动化,用Code LM(专门用于代码相关任务的大型语言模型)来替代Actuation

32:24 由李飞飞团队提出的《VoxPoser: Composable 3D Value Maps for Robotic Manipulation with Language Models》

(中文名:VoxPoser:使用语言模型进行机器人操作的可组合3D价值地图)

第二阶段:为机器人预训练基础模型(pretraining foundation models for robotics)

38:36 VLA端到端模型(Vision-Language-Action Model,视觉语言动作模型)——“人是很智能的VLA Agent”

39:53 关于VLA的经典论文及分类:

40:17 Aloha论文《Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware》

(中文名:学习用低成本硬件进行精细双手操作)

47:36 Mobile Aloha论文《Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation》

(中文名:移动ALOHA:使用低成本全身远程操作学习双手移动操作)

50:15 论文《A Generalist Agent》介绍了一个名为Gato的通用型人工智能代理

(中文名:通用型代理)

52:45 RT-1论文《RT-1: Robotics Transformer for Real-World Control at Scale》

(中文名:RT-1:机器人Transformer用于大规模现实世界控制)

59:02 Octo论文《Octo: An Open-Source Generalist Robot Policy》

(中文名:Octo:一个开源的通用机器人策略)

01:02:20 CrossFormer论文《Scaling Cross-Embodied Learning: One Policy for Manipulation, Navigation, Locomotion and Aviation》

(中文名:扩展跨具身学习:操控、导航、运动和飞行的统一策略)

01:06:58 字节跳动AI Lab的两个工作GR-1和GR-2:

《Unleashing Large-Scale Video Generative Pre-Training For Visual Robot Manipulation》(为视觉机器人操控释放大规模视频生成预训练模型)

《A Generative Video-Language-Action Model with Web-Scale Knowledge for Robot Manipulation》(用于机器人操作的网络规模知识生成视频-语言-动作模型》)

01:15:02 Palm-E论文《PaLM-E: An Embodied Multimodal Language Model》

(中文名:PaLM-E:具身多模态语言模型)

01:20:02 当前VLA最有名的开山工作:Google推出的RT-2论文《RT-2:Vision-Language-Action Models Transfer Web Knowledge to Robotic Control》

(中文名:RT-2:视觉-语言-动作模型将网络知识迁移到机器人控制中)

01:26:05 RT-X论文《Open X-Embodiment: Robotic Learning Datasets and RT-X Models》

(中文名:开放X具身:机器人学习数据集与RT-X模型)

01:31:16 《OpenVLA: An Open-Source Vision-Language-Action Model》(约等于开源版RT-2)

(中文名:OpenVLA:一个开源的视觉-语言-动作模型)

01:32:56 陈建宇课题组《HiRT: Enhancing Robotic Control with Hierarchical Robot Transformers》

(中文名:HiRT:利用分层机器人Transformer增强机器人控制)

01:38:40 Figure AI Helix,没发论文,但是今年Figure最新架构

01:39:28 Pi0论文《π₀: A Vision-Language-Action Flow Model for General Robot Control》

(中文名:π₀:一个视觉-语言-动作的流模型用于通用机器人控制)

01:41:36 英伟达最近发布的GROOT N1模型《GR00T N1: An Open Foundation Model for Generalist Humanoid Robots》

(中文名:GR00T N1:通用人形机器人的开放基础模型)

01:42:32 《Diffusion Policy: Visuomotor Policy Learning via Action Diffusion》

(中文名:扩散策略:通过动作扩散进行视觉运动策略学习)

01:47:39 清华发布的《RDT-1B: A Diffusion Foundation Model for Bimanual Manipulation》

(中文名:RDT-1B:双手操作机器人的扩散基础模型)

01:51:04 《Prediction with Action: Visual Policy Learning via Joint Denoising Process》(动作预测:通过联合去噪过程进行视觉策略学习)

和续作《Video Prediction Policy: A Generalist Robot Policy with Predictive Visual Representations》(视频预测策略:一个预测视觉表征的通才机器人策略)

02:03:06 两个未来方向:《UP-VLA: A Unified Understanding and Prediction Model for Embodied Agent》(UP-VLA:具身智能体的统一理解与预测模型)

《Improving Vision-Language-Action Model with Online Reinforcement Learning》(通过在线强化学习改进视觉-语言-动作模型)

02:09:22 最后的提问

【技术之美】系列:

逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”

逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”

逐篇讲解DeepSeek、Kimi、MiniMax注意力机制新论文——“硬件上的暴力美学”

【更多信息】

联络我们:微博@张小珺-Benita,小红书@张小珺

更多信息欢迎关注公众号:张小珺

展开Show Notes
张小珺
张小珺
2025.4.07
分享一下本集提到的机器人基座模型和VLA相关论文的link。
方便大家查阅:)
 
1-15

1.      《Do As I Can, Not As I Say: Grounding Language in Robotic Affordances》https://arxiv.org/pdf/2204.01691
 
2.      《Inner Monologue: Embodied Reasoning through Planning with Language Models》https://arxiv.org/pdf/2207.05608
 
3.      《DoReMi: Grounding Language Model by Detecting and Recovering from Plan-Execution Misalignment》https://arxiv.org/pdf/2307.00329
 
4.      《VoxPoser: Composable 3D Value Maps for Robotic Manipulation with Language Models》https://arxiv.org/pdf/2307.05973
 
5.      《Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware》https://arxiv.org/pdf/2304.13705
 
6.      《Mobile ALOHA: Learning Bimanual Mobile Manipulation with Low-Cost Whole-Body Teleoperation》https://arxiv.org/pdf/2401.02117
 
7.      《A Generalist Agent》https://arxiv.org/pdf/2205.06175
 
8.      《RT-1: Robotics Transformer for Real-World Control at Scale》https://arxiv.org/pdf/2212.06817
 
9.      《Octo: An Open-Source Generalist Robot Policy》https://arxiv.org/pdf/2405.12213
 
10.   《Scaling Cross-Embodied Learning: One Policy for Manipulation, Navigation, Locomotion and Aviation》https://arxiv.org/pdf/2408.11812
 
11.   《Unleashing Large-Scale Video Generative Pre-Training For Visual Robot Manipulation》https://arxiv.org/pdf/2312.13139
 
12. 《GR-2: A Generative Video-Language-Action Model with Web-Scale Knowledge for Robot Manipulation》https://arxiv.org/pdf/2410.06158
 
13.   《PaLM-E: An Embodied Multimodal Language Model》https://openreview.net/pdf?id=VTpHpqM3Cf
 
14.   《RT-2:Vision-Language-Action Models Transfer Web Knowledge to Robotic Control》https://arxiv.org/pdf/2307.15818
 
15.   《Open X-Embodiment: Robotic Learning Datasets and RT-X Models》https://openreview.net/pdf?id=zraBtFgxT0
张小珺
张小珺
2025.4.07
(因为,陈老师真的分享了很多很多的动图和视频,本集结合视频服用效果更佳噢!可以前往:含投屏的视频版本https://b23.tv/lWlFoBY。嘿嘿!预祝你学得开心!学得顺利啦!)
张云飞:🤙🤙🤙
仲泉:小珺为啥不出个镜😁
3条回复
WhatsNext
WhatsNext
2025.4.17
VLM和LLM配合着用,这是清华老师能说出来的吗😂
CQqjO
CQqjO
2025.4.13
这期讲的太好了,我还专门去YouTube上看完并做了详细笔记
张小珺
张小珺
2025.4.07
16-25

16.   《OpenVLA: An Open-Source Vision-Language-Action Model》https://arxiv.org/pdf/2406.09246
 
17.   《HiRT: Enhancing Robotic Control with Hierarchical Robot Transformers》https://arxiv.org/pdf/2410.05273
 
18.   《π₀: A Vision-Language-Action Flow Model for General Robot Control》https://arxiv.org/pdf/2410.24164
 
19.   GR00T N1: An Open Foundation Model for Generalist Humanoid Robots》https://arxiv.org/pdf/2503.14734?
 
20.   《Diffusion Policy: Visuomotor Policy Learning via Action Diffusion》https://arxiv.org/pdf/2303.04137
 
21.   《RDT-1B: A Diffusion Foundation Model for Bimanual Manipulation》https://arxiv.org/pdf/2410.07864
 
22.   《Prediction with Action: Visual Policy Learning via Joint Denoising Process》https://arxiv.org/abs/2411.18179
 
23.   《Video Prediction Policy: A Generalist Robot Policy with Predictive Visual Representations》https://arxiv.org/pdf/2412.14803
 
24.   《UP-VLA: A Unified Understanding and Prediction Model for Embodied Agent》https://arxiv.org/pdf/2501.18867?
 
25.   《Improving Vision-Language-Action Model with Online Reinforcement Learning》https://arxiv.org/pdf/2501.16664
EricZhao8
EricZhao8
2025.4.14
受益匪浅,节目一如既往的精彩!
听了这期就觉得机器人离商用还早着呢,10年以后的事儿吧,这次春节的那个机器人舞蹈都是事先编程的固定动作,只能说比过去有进步,过去是跳完固定舞蹈,由人扛着下去,这一次在春晚上跳完舞蹈是由人一对一的陪同下去
晨萱-语迟者说:朱啸虎说对了,人形机器人是错误的技术方向
非常赞的一期
想听mcp和一众agent协议的分析,国内有个常高伟团队也提了一个类似的协议,想听小珺聊聊
陈老师的声音好特别,明明音量不大,但即使在嘈杂的环境中也能听得很清楚,神奇!
论文都选的很经典!
ima君
ima君
2025.4.07
太好了,超喜欢读论文系列,跨越ai 泡沫的浮躁,走向技术之美与agi 的本质
PhillyChigg
PhillyChigg
2025.4.09
嘉宾回归本质,一股清流
嘉宾非常专业,但同时中英文混杂交流也实在是…不是听不懂,但是非常影响体验。
Whitney:陈老师提到的英文主要是领域内的专业名词。
Puster_Lee
Puster_Lee
2025.4.07
声音的输入对提高模型泛化能力似乎也很重要,据说特斯拉的FSD也在考虑处理声音的输入
脆皮Crisp
脆皮Crisp
2025.4.07
确实,最后在 b 站看完的
YihangWang:我也是,先看到youtube更新
讲的很浅,蜻蜓点水
小珺老师您好,我孩子今年十八岁,对机器人与人工智能非常感兴趣,现在暑期从五月到九月中旬,有没有可能推荐一下去陈老师那里去实习一段时间?谢谢!
小小贾
小小贾
2025.5.01
是自回归和扩散两种路线
robin_zhang
robin_zhang
2025.4.23
请问下端到端具体是指的什么?