

EP19 聊聊Anthropic指控中国头部模型的所谓“蒸馏攻击”本期播客深入探讨了Anthropic公司对三家中国AI公司发起的“蒸馏攻击”指控,指出他们通过未经授权的方式,大规模复制Claude模型的独特能力,引发了对AI技术扩散、知识产权保护和国家安全的深层思考。 Anthropic对中国AI实验室的“蒸馏攻击”指控 * Anthropic于2026年2月23日指控DeepSeek、Moonshot AI和MiniMax三家中国公司对Claude模型进行“工业规模的蒸馏攻击”。 * 指控核心:创建约24,000个虚假账户,生成超1,600万次交互,系统性提取Claude的代理推理、工具使用和编码等核心能力。 * 技术概念:“蒸馏”是指学生模型学习教师模型输出来提升性能,而Anthropic指控的是“未经授权”的非法行为。 * 攻击运作方式:通过商业代理服务、庞大欺诈账户网络路由流量,并混合合法请求以规避检测。 * 被攻击的具体能力:DeepSeek主要针对基础推理和审查安全替代方案;Moonshot AI侧重代理推理、工具使用和计算机视觉;MiniMax则最为激进,主要针对代理编码能力,并迅速响应Claude新版本。
EP18 AI学会了合作,因为它们先学会了"读心术"谷歌最新论文《Multi-agent cooperation through in-context co-player inference》的研究发现,人工智能能通过“上下文学习”(in-context learning)习得“读心术”,从而在囚徒困境等多智能体博弈中,通过相互引导实现复杂合作,而非预设编程指令。这一机制不仅克服了AI合作的传统障碍,也为未来AI系统设计带来了机遇与挑战。 上下文学习(ICL)与“可利用性”的发现 * 核心概念: AI通过“上下文学习”,在不改变模型参数的前提下,仅通过观察互动历史,推断对手的意图和风格,并据此调整策略。 * 意外“副作用”: 具备ICL能力的AI因其高度适应性而变得“可利用”(exploitable),即易被精心设计的对手引导或“塑造”行为。 * 关键洞察: 这种看似的“弱点”并非缺陷,反而是促使AI从个体理性走向集体合作的关键,是实现相互引导的基石。 AI合作涌现的三步机制与实验验证 * 第一步:多样性中学会“读心”: AI在包含规则型和学习型AI的“多样化对手池”中训练,发展出快速识别和预测对手行为的“读心术”。 * 第二步:被“引导”的AI: 实验证明,ICL-AI的“可利用性”使其能被专门训练的对手通过特定行为模式有效引导。 * 第三步:相互引导导致合作: 当两个都具备引导能力的AI对练时,它们通过动态的策略调整和相互制衡,最终收敛于更优的合作策略,而非陷入对抗。 * 实验验证: 主实验显示混合训练提升合作率;对照实验表明,缺乏ICL或多样性训练环境,AI无法实现合作。
EP17 Agent 时代来了:你的 AI 还只会聊天吗?你打开 ChatGPT,输入一个问题,它回答了。你再问,它再答。这场景熟悉吗? 但就在最近几个月,AI 的使用方式已经发生了根本性的改变。现在的 AI,不只是陪你聊天的对话框,它能真正替你把事情做完,成为我们的“数字同事”。我们开始进入 Agent时代。 理解AI Agent时代的三大核心概念 * 模型 (Model):AI的“大脑”,决定其认知、学习和推理能力,如GPT-5.2/5.3、Claude Opus 4.6和Gemini 3 Pro。 * 应用 (Application):用户与AI模型交互的界面,如chatgpt.com、claude.ai,也包括集成开发环境(IDE)或桌面工具。 * 工具链 (Toolchain/Harness):让AI模型“干活”的关键系统,使其能使用外部工具、执行复杂任务,如搜索网页、编写代码、控制浏览器。 * 三者协同: 模型提供潜力,应用提供界面,工具链将模型的潜力转化为实际行动力。 AI Agent对工作方式的深远影响 * 自ChatGPT发布以来最重要的变化: AI Agent代表着从“辅助工具”到“主动执行者”的根本性范式转移。 * 工作模式转变: 从“提示”(单向指令)到“管理”(宏观目标设定、监督、反馈),AI Agent成为“数字同事”。 * 解放人类生产力: 将重复性、事务性工作交给AI Agent,使人类能投入更具创造性、战略性和人际互动的工作。
EP16 AI医生来了:它真的能看病吗?本播客节目探讨了人工智能在医疗领域的崛起及其对传统医疗模式的深刻变革。我们聊了聊AI已展现出在复杂诊断中超越人类专家的能力,并详细谈论了AI通过海量数据积累、专家思维模拟及多模态融合等方式“学医”的三个关键阶段。 2025年,北京医院诊断复杂病例比赛中,ChatGPT o1 (314.5分) 和 Gemini (265分) 领先于8位资深医生团队 (251.5分)。这让我们对AI是怎么看病的感到好奇。 AI是怎么学会看病的 第一阶段:医学基座与数据精炼 构建“通识教育”基座,学习全球海量医学文献(教科书、论文、指南)。 获取医院内部真实数据(问诊对话、病历、影像报告)进行“临床实习”。 通过清洗、标注、筛选等过程精炼数据(强调高质量专家病例的重要性)。 第二阶段:掌握专家思维链 通过顶尖专家“手把手教”,将医生脑海中隐性的临床经验(如问诊逻辑、决策树)显性化为AI可学习数据。 AI通过模仿专家诊疗思路并反复校准,形成像专家一样的思考方式。 第三阶段:感官与沟通艺术 学习“读片子”:通过“多模态融合”技术,直接理解CT、MRI等医学影像。 培养“沟通艺术”:学会“说人话”,通过类比等方式引导患者准确描述症状。 技术支撑:RAG(检索增强生成)确保回答准确性与时效性;“快慢双系统”平衡效率与安全性。 AI能替代人类医生吗?AI与人类医生并非竞争关系,而是优势互补的协作模式,AI作为辅助工具将极大地提升医疗效率与可及性,但个性化考量和人文关怀仍是人类医生不可替代的价值,最终诊疗决策权仍需由医生掌握。
EP15 人为什么要睡觉?SleepFM告诉你答案斯坦福大学的SleepFM AI模型通过分析一晚睡眠数据,能够以高准确率预测个体未来患心脏病、痴呆症等重大疾病的风险,甚至预测寿命,这一突破性研究发表在《Nature Medicine》上 SleepFM的创新技术与设计 * 自监督学习范式: 不依赖人工标注,AI通过“完形填空”式预测,自主从海量数据中发现规律。 * 对比学习(LOO-CL): 让AI学会区分和关联不同生理信号在时间上的同步性,强化正样本对,推开负样本对。 * 通道无关设计: 处理任意数量、类型的生理信号,无需预知具体含义或位置,解决数据兼容性问题。 * 多模态融合: 综合分析脑电波、心电图等多种信号,捕捉系统间复杂关联,提高预测准确性。 * 基础模型策略: 在大规模数据上预训练,形成通用“睡眠特征提取器”,再通过少量数据微调适应特定任务,提高效率和泛化性。 * 技术深潜:数据采样与分段: 原始信号(如128Hz)切分5秒“token”。 特征编码: 每个“token”通过**一维卷积神经网络(1D CNN)**编码成128维向量。 通道池化: 同模态多通道信息融合为高级“模态表示”。 时间建模: Transformer架构通过自注意力机制捕捉5分钟时间窗口内的动态时序关系。 时间池化: 将整晚睡眠信息浓缩成固定长度“摘要”向量用于预测。 SleepFM的惊人预测力与生理基础 * 预测范围与准确率: 测试1041种疾病,其中130种预测准确率达0.75 C-Index以上(0.5为随机,1.0为完美)。 * 关键疾病预测准确率:全因死亡: 0.84 痴呆症: 0.85 心肌梗死: 0.81 心力衰竭: 0.80,慢性肾病: 0.79,中风: 0.78,房颤: 0.78。 * 预测多疾病的生理机制:心血管疾病: 睡眠中血压、心率、呼吸变化是风险指标;睡眠呼吸暂停导致反复缺氧、激活交感神经,增加心血管负担。 神经退行性疾病(如痴呆症): 深度睡眠(慢波睡眠)时,大脑淋巴系统活跃,清除β-淀粉样蛋白等代谢废物,减少慢波睡眠增加痴呆风险。 癌症: 长期睡眠不足会抑制免疫系统功能(如自然杀伤细胞活性),可能增加癌症风险。 * 数据效率与泛化能力: 仅需10%训练数据即可达到传统方法100%数据效果;在新数据上表现依然出色,证明其强大泛化能力。
EP14 从AlphaFold到自动化实验室:AI 重塑科学发现本期播客深入探讨了人工智能如何加速科学发现,并彻底改变科学研究范式的方式。 从ChemCrow事件展示AI操控云端实验室的能力开始,然后通过AlphaFold颠覆蛋白质折叠问题的案例,揭示AI从第一性原理到数据驱动的认知革命。最终,探讨了以“世界模型”为核心的自动化科学循环以及未来科学家将成为“智能体驯兽师”的角色转变,预示科学发现正从稀缺资源转变为可扩展的工程能力。 AI介入物理世界:ChemCrow的震撼 2023年3月ChemCrow论文发布,展示GPT-4能操控云端实验室自主完成化学实验,冲击力之大甚至引发美国白宫关注。AI的能力从传统的数据分析和理论推导,首次延伸到直接介入物理世界,指挥真实实验设备,模糊了虚拟与现实的界限。技术核心机制是 GPT-4通过API接口与云端实验室连接,将实验目标分解为机器可执行的精确指令,实现对实验流程的自主控制。 自动化科学框架:世界模型与验证循环 Andrew White团队致力于自动化科学发现的认知循环,即提出假设、设计实验、分析结果、更新世界模型、产生新假设的完整过程。设计的Cosmos系统以“世界模型”为核心,它是一个动态演化的内部表征,包含已知事实、因果关系和不确定性,指导AI进行推理、预测和决策。摒弃人类主观的“科学品味”评估,转而依赖文献检索、数据分析和实验结果等客观、高信号的反馈来筛选和验证假设,并更新世界模型,从而形成迭代的认知循环。 科学发现正从稀缺资源转变为可扩展的工程能力,通过AI赋能,其效率和规模可像软件工程一样通过优化流程、工具和并行处理不断提升。
EP13 单台4亿美元的机器撑起了全球芯片产业本期节目深入探讨了现代芯片制造的巅峰技术——极紫外光刻(EUV)。 极紫外光刻技术的起源与早期困境 * X射线光刻设想: 1980年代,日本科学家木下博夫大胆设想使用波长约10纳米的X射线进行光刻,以刻印更精细的图案。 * 技术挑战重重: X射线光刻面临巨大难题,包括X射线被空气吸收需真空环境、传统透镜无法聚焦X射线、缺乏天然X射线光源。 * 多层反射镜的突破: 木下博夫和美国劳伦斯利弗莫尔国家实验室(由核武器科学家团队)各自独立发现了能有效反射X射线的“多层反射镜”。 * 初期遭嘲讽与质疑: 木下博夫和劳伦斯利弗莫尔的安迪·霍瑞卢克提出X射线光刻想法时,均遭遇科学界的普遍不理解和嘲笑。 * 命名与转向EUV: 随着冷战结束,美国政府鼓励技术商业化,贝尔实验室支持并正式将该技术命名为“极紫外光刻(EUV)”。 ASML 的技术突破与光源创新 * 巨头接力与战略合作: 1996年美国政府削减EUV资金后,英特尔、摩托罗拉等私营企业共同投资2.5亿美元,重任最终落在荷兰ASML肩上,并与德国蔡司(负责超精密镜子)形成战略合作。 * 13.5纳米波长选择: 经过大量实验和权衡,最终确定13.5纳米为EUV波长,以平衡分辨率和多层反射镜的70%反射率。 * 激光等离子体光源(LPP): ASML开发出“人造太阳”LPP光源,通过两次激光击中高速飞行的熔化锡液滴,使其瞬间加热至22万开尔文,从而高效发射13.5纳米EUV光,需解决锡碎片污染的难题。 * 光源功率的飞跃: 从2000年原型机的10瓦,到2010年首台商用机NXE:3100的10瓦,再到2023年最新EXE:5000系列的超过1000瓦,ASML用23年时间实现了百倍以上的功率提升。 EUV光刻机是ASML、德国蔡司、被ASML收购的美国Cymer(激光光源供应商)以及全球数百家顶尖供应商共同协作的结晶。
EP12 一个数据库,如何撬动AI材料产业美国伯克利实验室于2011年推出了免费开放的Materials Project数据库,它利用高通量计算提供大规模、标准化的材料数据,成为AI时代材料发现不可或缺的基础设施,并推动了如A-Lab等自动化实验平台的诞生,加速了新材料的研发进程。 AI时代的“杀手级”优势:AI-Ready特性 * “AI-Ready”优势: Materials Project的数据经过精心处理、标准化,具备“即插即用”特性,极大地缩短了AI模型训练前的数据清洗和预处理时间。 * 高通量计算支撑: 利用超级计算机进行批量计算,模拟材料行为,预测物理化学性质,像自动化工厂流水线般生产和测试材料属性。 * 战略前瞻性: 在AI尚未普及前,Materials Project已将机器学习算法内置于系统设计中,使其数据结构与计算流程天然契合机器学习需求。 * 基础设施支持: 由美国能源部下属的NERSC超级计算中心提供支持,确保数据持续更新和扩展。 巨头们的材料发现之旅 * 丰田研究院(TRI): 作为Materials Project的早期重度用户,利用其数据开发新型电池技术和催化剂,并培养了一批懂AI材料发现的年轻科学家。 * 微软(Microsoft): 利用数据库训练了生成式AI模型MatterGen,用于设计无机材料;Azure Quantum团队利用其数据开发新型电池电解质。 * Google DeepMind: 训练了GNoME模型来预测晶体总能量,该模型反过来向Materials Project贡献了近40万种新化合物的预测数据,形成良性循环。 从数据库到“自动实验室”:A-Lab的闭环创新 * A-Lab(Autonomous Lab): 伯克利实验室于2023年推出,是一个完全由AI控制的自动化实验室,能进行实验设计、材料合成与性能测试。 * 完整闭环运作: Materials Project提供预测数据,AI模型智能筛选最佳候选材料,A-Lab根据AI指令自动合成测试,所有实验结果反馈回Materials Project,形成自我学习、自我进化的系统。 * 研究范式变革: 将材料发现从“数据预测”到“物理实现”无缝衔接,将研发周期从数年缩短至数月甚至数周。
EP11 当AI有了身体,具身智能的进化之路本期播客深入探讨了具身智能这一前沿领域。具身智能旨在解决传统AI“有脑无身”的困境,通过赋予AI物理躯体和与真实世界交互的能力,迈向更深层次的智能。 节目详细聊了具身智能的核心构成、多模态AI模型的演进以及LLMs、MLLMs和世界模型各自的赋能作用,并指出联合架构是实现通用物理智能的关键,同时展望了其广泛的应用场景和面临的硬件挑战。 AI模型的演进:从LLM到世界模型 * 多模态智能的崛起:从早期单一感官(如仅视觉或听觉)的局限,发展到整合多种感官信息(视觉、听觉、触觉)的时代。 * 大语言模型(LLMs)的赋能:为具身智能带来语义推理(理解人类意图、指代消解)和任务分解(将复杂目标拆解为可执行子任务、动态调整计划)能力。 * 多模态大模型(MLLMs)的深化:实现跨模态理解(整合图像、文本、音频等信息)、强化主动感知、深化具身认知(构建含记忆与反思的世界模型)、优化动态交互(实时调整行为策略),代表如PaLM-E、RT-2、EmbodiedGPT。 * 世界模型的核心作用:弥补对物理规律理解的不足,通过构建内部表征(理解事物运作)和实现未来预测(模拟行动后果、进行假设性推理)来优化行动策略,代表如RSSM-based(Dreamer-v3)和JEPA-based(Sora、Genie)。
EP10 寻找机器人的“小脑”具身智能的三道曙光与三道关卡 * 三道曙光 (技术进展): 运动控制 (Locomotion) 的解决: ETH通过强化学习 (RL) 实现四足机器人自然流畅运动,英伟达仿真器和硬件公司(如MIT Mini Cheetah)缩小了Sim-to-Real Gap。 任务规划 (Task Planning) 的赋能: 大型语言模型 (LLMs) 如GPT能将高层模糊指令分解为具体可执行步骤,弥补机器人缺乏常识和共享数据库的不足。 端到端 (End-to-End) 应用潜力: 神经网络直接将高维传感器输入映射到低维动作输出,被陈亦伦在自动驾驶领域验证合理,有望在具身智能中引发“GPT时刻”。 * 三道关卡 (发展障碍): 数据墙: 具身AI需比自动驾驶AI强10倍,所需真实交互数据量巨大(估计1000万小时),且高质量数据获取成本高、效率低,仿真数据对复杂交互作用有限。 算力墙: 随着数据量和系统复杂性增加,算力成为关键瓶颈,行业将进入“算力比拼时代”。 创造力/后训练墙: 当数据和算力不再是瓶颈时,需要通过“世界模型”和“VLA”(Vision-Language-Action)解决开放世界问题和复杂交互。 它石智行的创新数据引擎与模型理念 * “人本中心”具身数据引擎: 核心方案: 设计轻量化可穿戴设备(手套和第一视角摄像机),直接从人类操作中获取高质量数据。 优势: 相比传统“遥操作”模式,更高效、低成本(降低100倍),数据来源于真实场景与动作,实现技能直接迁移。 技术细节: 手套能实现“二十多个自由度”的精确数据采集,远超一般动捕手套或VR设备。 数据积累: 已采集约10万小时数据,并持续高速增长,有望突破具身智能的“数据墙”。 * “AI世界引擎” (AWE) 模型理念: 超越传统VLM/VLA: 不仅是表面感知和语言理解,更强调对物理世界“时间、空间、力”等基本物理量的内在规律建模。 动态演化: 建立对物理世界的动态表征,理解动作如何改变世界,而非简单识别或“看图说话”。 机器人专属基础模型: 坚信机器人行业需要自己的基础模型,而非简单嫁接现有VLM模型,强调其对物理定律和交互信息(力、力矩)的理解。
EP09 Agent如何在24小时内让5万个科学工具跑起来科学界有个尴尬的现实:过去几十年产出了海量的开源科学软件,覆盖生物信息学、化学、材料科学、物理等几乎所有学科。但这些工具的可用性并没有随着数量增长而提升。 大多数工具依然很难编译、配置和复现。它们严重依赖手动操作、未文档化的假设,以及特定环境的专业知识。 结果就是,大量科学软件虽然在代码仓库和论文里存在,但并不是"可以直接运行"的状态。 DP Technology(深势科技) 的研究团队最近做了一件听起来有点疯狂的事:他们用一个叫 Deploy-Master 的 AI 系统,在 24 小时内自动部署了 50,112 个科学工具,成功率高达 95.36%。 当5万个科学工具在一天内全部就绪,我们看到的不只是效率提升,更是科研范式的转变。它让科学家(无论是人类还是AI)从繁琐的配置工作中解放出来,去专注于那些真正激动人心的探索。
EP08 自动驾驶路线之争:特斯拉直觉与Waymo推理的融合特斯拉不要雷达,只要摄像头,赌的是 AI 能像人眼一样靠“直觉”开车; Waymo 满载昂贵的激光雷达,求的是比人类更精确的“推理”能力。 一场关于自动驾驶未来的豪赌正在上演:是马斯克的低成本软件方案通吃全球,还是谷歌的硬核传感与精密地图更安全可靠? 这不仅是技术路线之争,更是两种 AI 思维模式的对决。谁能最终拿掉我们的方向盘?
EP07 如何让AI学会真实世界的时空推理高德推出了专注于时空推理与生活服务规划的 AI智能体STAgent。它旨在让 AI 从简单的对话转向复杂的实操,通过沙盒工具环境、多重过滤的高质量数据以及级联训练策略,解决了现实场景中环境多变和数据噪音大的难题。 STAgent 采用了一种难度感知的动态学习机制,通过对真实用户数据的深度提炼,实现了“因材施教”的高效训练。 测试结果证明,该智能体在旅行规划和多步推理任务上表现卓越,甚至超越了参数规模更大的通用模型。这项研究标志着:专而精、小而美的STAgent,让AI实现从"对话伙伴"到"行动助手"的转变。
EP06 自动驾驶的两条路:渐进还是激进?自动驾驶领域出现了两种技术路线之争。 渐进派主张通过量产车积累大规模数据来迭代算法,而一步到位派则直接追求高等级的无人驾驶安全标准。 随着端到端大模型技术的兴起,传统的等级界限正在模糊,甚至可能导致行业直接跳过L3阶段。双方在传感器选择(如纯视觉与激光雷达)及商业化路径上存在显著分歧,反映了对安全与效率的不同权衡。 这场竞争的核心在于,究竟是依靠海量数据逐步演进,还是坚持最高安全准则先行,将决定未来智慧出行的最终形态。
EP05 AI 时代的存储战争,国产芯片还差多远?北美地区数万亿美元级别的AI数据中心正在疯狂建设,存储芯片需求暴增。 全球存储供不应求的背景下,中国存储厂商迎来了难得的发展机遇。 AI时代的存储需求正在改写产业格局。对中国而言,这是实现存储芯片国产替代、保障数字经济安全的历史机遇。能否把握住这一轮超级周期,在技术、市场、资本多方突破,将决定中国存储产业能否在全球竞争中真正站稳脚跟。