
Vol. 3 内向者的学术会议生存指南:从社交恐惧到高效交流【内容简介】 如何避免低效地参加学术会议?内向者如何在学术会议中获得尽量多的有效社交? 作为内向者,参加学术会议往往像是一场社交马拉松,不知如何融入、身心俱疲。然而,良好的学术交流是科研生涯的必修课,是不得不抓住的成长机会。 好消息是,内向并非缺陷,而是优势。内向者善于深度倾听和建立有意义的关系,关键在于发挥这些天赋,变被动为主动。 【内容索引】 00:00:45 - 内向者在学术会议中的典型困境描述 00:01:23 - 解释内向的真正含义和常见误解 00:01:52 - 内向者与外向者的能量消耗差异对比 00:02:21 - 传统社交方式对内向者的局限性 00:02:44 - 内向者的天然优势和不同策略的必要性 00:03:17 - 会议选择的重要性:小型vs大型会议 00:04:01 - 大型会议中的应对策略和子会场选择 00:04:20 - 社交侦查:会前准备和目标设定 00:05:00 - 预埋伏笔技巧:提前邮件联系 00:06:03 - 电梯演讲的准备和四个核心要素 00:07:13 - 现场参会策略:问答环节的黄金机会 00:08:17 - 茶歇社交的质量导向原则 00:12:08 - 会后24小时跟进法则和具体执行要点 00:13:59 - 总结三大核心原则和内向者优势重申 【录制时间】 2025年08月31日 如果你喜欢我的节目,欢迎你分享到更多的地方,也欢迎你在评论区留言交流。
Vol. 2 二十个字让寒武纪涨停!DeepSeek V3.1背后的芯片密码与精度革命【内容索引】 * 00:00:02 - DeepSeek V3.1发布引爆芯片市场:DeepSeek官方置顶评论提到UE8M0FP8针对下一代国产芯片设计,短短二十几个字引爆中国芯片市场,寒武纪单日涨停20%创历史新高。 * 00:01:03 - 浮点精度技术背景介绍:这些看似乱码的术语实际上是计算机硬件层面的浮点数精度格式,将讲述计算机浮点精度的前世今生,涉及天才数学家的坚持和大公司博弈。 * 00:01:57 - 早期浮点运算混乱时代:20世纪60-70年代,不同厂商有各自的浮点运算标准,程序在不同机器间移植困难,甚至导致1996年阿丽亚娜5号火箭因浮点运算错误而坠毁。 * 00:05:01 - 英特尔与威廉·卡汉的合作:1976年英特尔为8086设计浮点协处理器,邀请斯坦福大学教授威廉·卡汉担任顾问,卡汉整合优秀浮点特性打造出8087协处理器的技术基础。 * 00:07:06 - IEEE 754标准制定过程:1977年旧金山会议上各大厂商代表聚集,卡汉草拟KCS技术规格,争论焦点集中在数字下溢处理上,DEC主张直接清零,KCS采用渐进式下移方案。 * 00:09:11 - 技术之争的转折点:加州大学伯克利分校研究生乔治·泰勒用基于KCS的加速板与DEC原版硬件比拼性能,证明了高速KCS浮点运算的可能性,DEC技术论据不攻自破。 * 00:11:47 - IEEE 754标准的历史意义:1985年IEEE 754标准正式获批,MIT创始人建议外国访客参观美国两大奇观:大峡谷和IEEE 754会议草案,感叹委员会成员的利他精神。 * 00:12:05 - 浮点数工作原理详解:用财富记录比喻解释浮点数原理,浮点数采用科学计数法,用32位表示:1位符号位、8位指数位、23位尾数位,能表示极大和极小的数。 * 00:14:52 - AI时代精度需求变化:随着模型规模增大,FP32过于臃肿,研究发现AI大模型对数值范围要求比精度要求更严格,神经网络训练像雕塑而非钟表制造,催生FP16应用。 * 00:16:15 - 谷歌BF16解决方案:2017年谷歌提出Brain Float 16,保持8位指数位但截断尾数到7位,具有与FP32相同指数范围但降低精度,对神经网络是完美权衡。 * 00:17:05 - 英伟达的技术回应:英伟达在V100上推出TF32格式(19位:1位符号+8位指数+10位尾数),提高计算速度但存储仍用32位,直到A100时代才全面拥抱BF16。 * 00:18:39 - 英伟达FP8创新:2024年英伟达推出Blackwell架构的FP8支持,包含E4M3和E5M2两种格式,并创新MX FP8技术,将张量分为32元素块,每块有独立缩放因子。 * 00:20:00 - DeepSeek UE8M0FP8技术解析:DeepSeek的UE8M0是缩放因子格式(无符号8位指数0位尾数),只能表达2的整数次幂,FP8是数据格式,具有硬件友好、动态范围大、带宽优化三大优势。 * 00:22:34 - 国产芯片技术突破意义:国内软硬件厂商形成协同技术生态,类似美国Wintel联盟,DeepSeek与国产芯片厂商深度绑定,在技术标准、性能优化和生态护城河方面具有深远产业意义。 * 00:24:05 - 技术发展历史总结:从IEEE标准之争到AI时代精度革命,再到国产芯片突围,技术背后没有绝对最优解,只有特定约束下的最佳解,展望国产芯片未来发展前景。 【本期相关】 DeepSeek-V3.1 发布,迈向 Agent 时代的第一步 Per-Tensor and Per-Block Scaling Strategies for Effective FP8 Training An Interview with the Old Man of Floating-Point Intel And Floating Point Floating-Point 8: An Introduction to Efficient, Lower-Precision AI Training 适用于有效 FP8 训练的按张量和按块扩展策略 【录制时间】 2025年08月24日 如果你喜欢我的节目,欢迎你分享到更多的地方,也欢迎你在评论区留言交流。
Vol. 1 Prompt Engineering已死?Context Engineering才是AI的未来【内容索引】 * 00:00:02 - 介绍Context Engineering作为下一代Prompt Engineering的概念,与Agent技术密切相关,是当前AI领域的热门话题 * 00:01:06 - 详细解释Prompt Engineering的定义和作用,包括大模型厂家(如Grok、Claude)的系统级设定和用户端的精细化应用技巧 * 00:04:41 - 从2020-2022年Prompt Engineering的兴起,到现在需要处理更复杂的现实世界交互能力,技术发展的历史脉络和演进动机 * 00:06:19 - 用"脑容量有限的员工"比喻语言模型的记忆限制,解释为什么需要高效组织背景信息的机制来解决复杂问题 * 00:08:31 - 将Context Engineering与领导力原则对比,强调"给context而非control"的管理思想,以及与Agent自主决策的关系 * 00:10:09 - 从哲学角度探讨记忆对人类和AI的意义,强调语言模型需要记忆能力才能从工具层进化到AGI水平 * 00:11:48 - 详细介绍Context Engineering的前两个环节:写入上下文(长期/短期记忆)和选择上下文(信息检索和召回机制) * 00:14:25 - 继续介绍压缩上下文(摘要和修剪方法)和隔离上下文(Multi-agent环境下的信息隔离和沙盒机制) * 00:17:22 - 通过软件开发团队的例子,详细说明如何为不同角色(产品经理、用户研究、程序员、测试)分配不同的上下文信息 * 00:19:45 - 深入分析Context Engineering面临的安全问题,重点讨论context注入攻击,类比SQL注入攻击的危险性 * 00:22:14 - 探讨随着历史信息增多带来的效率下降,包括token溢出、信息损失、幻觉风险和多智能体的资源消耗问题 * 00:25:24 - 分析Context Engineering本身的发展方向,包括轻量化压缩算法、神经符号系统完善和自动化上下文优化技术 * 00:27:48 - 讨论Context Engineering对大语言模型的推动作用,重点关注长文理解能力的提升需求和相关技术突破 * 00:28:46 - 全面分析四个应用方向:多模态应用(自动驾驶、医疗)、行业定制化、人机环境结合和机器人技术发展 * 00:32:08 - 强调Context Engineering作为AI系统新架构形态的重要性,连接各个处理环节,决定系统自动化水平和实际落地能力 【本期相关】 Reflexion: Language Agents with Verbal Reinforcement Learning Generative Agents: Interactive Simulacra of Human Behavior Recursively Summarizing Enables Long-Term Dialogue Memory in Large Language Models Cognitive Architectures for Language Agents Executable Code Actions Elicit Better LLM Agents Toolshed: Scale Tool-Equipped Agents with Advanced RAG-Tool Fusion and Tool Knowledge Bases Zep: A Temporal Knowledge Graph Architecture for Agent Memory Provence: efficient and robust context pruning for retrieval-augmented generation RAG-MCP: Mitigating Prompt Bloat in LLM Tool Selection via Retrieval-Augmented Generation 【录制时间】 2025年08月16日 如果你喜欢我的节目,欢迎你分享到更多的地方,也欢迎你在评论区留言交流。