



No.92 迟到的节目盘点节目简介 嗨,大家好!欢迎来到新一期的《Web Worker》播客 。这期我们不讲枯燥的代码,纯闲聊——这是一场属于咱们前端程序员的年度回顾局 。主播辛宝和“坐了两个小时”的 Smart 在现场,带大家一起翻翻2025年的“旧账” 。过去这一年,我们聊了前端技术的跌宕起伏,见证了 AI 带来的行业震撼,也走出去做了不少线下的跨界串台交流 。这不仅是节目的盘点,也是咱们打工人的年度记忆 。当然,面对已经到来的2026年,我们也有了新的期待,特别是如何深度融合 AI 工具流来彻底解放生产力 。 另外,从第90期节目开始,我们WebWorker要启动一个「100期专属子线程任务」每期藏一条「指令字符」,就像Worker后台线程一样,悄悄运行,不影响正常收听。等100期集齐所有字符,拼出完整的「核心指令码」,前N位私信给我的听友,就能解锁我们100期的限定奖励。做个细心的Worker,找到所有指令吧! 时间轴 * 00:02 开场,辛宝和Smart准备一起盘点2025年录过的节目,顺便翻翻年初的那些预测 * 02:12 年初的大联欢,几个人围坐在一起总结过去一年,也聊了聊对新一年的期待 * 05:30 Kaiyi 从加拿大远程连线,聊了国内外生活的不同,也正好赶上DeepSeek突然火起来 * 08:39 围绕Vue 3.6的前瞻,聊了Alien Signals的集成和性能上的变化 * 13:55 和晓宇在线下录了一期,聊职场里的挣扎、裸辞,还有之后怎么慢慢找回状态 * 17:27 跟infra团队聊模块联邦2.0,技术细节比较多,聊得很深 * 21:31 邀请Vue核心成员聊Vapor Mode,聊这个新方向的性能表现和未来可能性 * 28:11 跨到医疗行业,跟三甲医院的医生聊人脑和AI在工作方式上的不同 * 30:56 年底跟另一位播客主播闲聊,话题慢慢落到AI对程序员职业路径的影响上 * 36:54 展望2026年,想怎么用AI把播客的制作流程变得更轻便、更高效
No.91 Kaiyi几十场AI面试后的总结:怎么成为懂 AI 的人节目简介 本期节目在中关村创业大街线下录制,迎来时隔一年多的重磅嘉宾开翼——刚从加拿大微软归来,带着 GitHub Copilot 团队的一线实战经验。四位技术人深度拆解大模型的工作原理:从 Temperature 参数如何影响创造力,到 Cache 机制为何能让 API 便宜这么多;从 RAG 的完整最佳实践,到为什么大公司做不好大模型;从 AI 时代"2000 行单文件"的新开发范式,到程序员未来 1-5 年的动荡期预判。这不是科普向的入门课,而是一线工程师用真金白银试出来的实战经验分享。 本期要闻 1. Temperature 参数的真相:创造力与稳定性的博弈 开翼从大模型的基本原理讲起:模型本质是"下一个词预测器",每次生成时会输出多个候选词及其概率。Temperature 参数决定了选词策略——设为 0 时模型会 100% 选择概率最高的词,输出稳定但呆板;设得越大,模型越可能选择低概率词,创造力提升但不确定性增加。 "如果你的 temperature 设成 0,它百分之百会选择概率最大的词。所以它表现出来给我们的感觉就它变得呆板,创造力低,但是非常的稳定。" —— Kaiyi 实战经验表明:翻译、数学题等需要精确输出的场景应将 temperature 设到最低;而写小说、创意文案等需要发散思维的场景则应调高。这个参数揭示了 AI 应用的核心权衡:没有万能配置,只有场景适配。 2. Cache 机制:为什么击中缓存能便宜这么多 大模型的生成是迭代过程:每生成一个词,都要把已生成的所有词重新送回模型预测下一个。这就是为什么早期 ChatGPT 是"一个词一个词蹦出来"。Cache 机制缓存了已处理的 token,下次请求时可以复用前面的计算结果,大幅降低算力消耗。 "你会发现我所有大模型 API 都会告诉你,如果你击中了 cache 是多少钱,如果你没有击中缓存是多少钱。" —— Kaiyi "它缓存的就是我们'今天早上吃'这四个词,它就缓存在里边了。你下次再来,你是在后面又加了词,那就可以把之前那些结果拿出来去复用。" —— Kaiyi 这解释了为什么 DeepSeek 等模型的缓存价格能降低"非常多"——不是慈善,而是真实的成本节省。开发者应该主动设计对话流,最大化缓存命中率。 3. Top-k 与 Top-p:另一个影响创造力的旋钮 除了 temperature,Top-k 参数同样影响模型的选词策略。Top-k=2 意味着只从概率最高的前 2 个词中选择,Top-k=10 则从前 10 个词中选。OpenAI 官方文档明确建议:不要同时调整 temperature 和 Top-k,因为它们本质上影响同一件事,同时调整会让效果变得不可预测。 "OpenAI 的官方文档会告诉你,不要同时调整 temperature 和 Top-k,因为这两个本质影响是一个事儿,所以它会让你的调整变得没有那么的正交。" —— Kaiyi "一般是固定好了某一个再去调另一个。" —— Kaiyi 这是典型的工程实践智慧:当两个参数相互耦合时,应该采用控制变量法,而不是盲目调参。 4. "贵但好用"的 Codex 与"快但冒烟"的 Claude 开翼分享了在加拿大微软的实战经验:团队同时使用 Codex、Claude 和 Kimi,发现各有千秋。Codex 响应慢但生成的代码"直接可用";Claude 在 plan mode 下快速输出大量代码,但常因"兢兢业业干得太快"导致不可用。这种取舍让工程师不得不混用工具——有朋友直接充值 200 刀 Codex。 "Codex 的问题是速度特别慢,但实际生成效果确实不错。" —— Kaiyi "Claude 有时候就是兢兢业业干活特别快,给你代码特别多,但是有时候不可用。" —— Kaiyi 这场工具之争揭示了当前 AI 编程的核心矛盾:速度与可靠性的永恒博弈。没有银弹,只有权衡。 5. 哈利波特测试:上下文塞满后的智能崩塌 开翼抛出一个经典测试:将整本《哈利波特与魔法石》塞进模型上下文,再询问细节问题。结果令人意外——尽管模型拥有全部答案,却因上下文过载导致"召回能力急剧下降"。这个实验直指当前技术痛点:token 成本不仅关乎金钱,更影响模型的核心智能表现。 "当上下文塞满了之后,它的召回能力有些可能就看不到,以及它的智能一定会下降。" —— Kaiyi "把整本哈利波特塞进模型里问细节,他肯定有所有答案,但有时候回答不对。" —— Kaiyi 这个残酷测试提醒我们:在追求长上下文能力时,开发者需警惕"塞得越多,忘得越快"的隐性陷阱。真正的智能或许不在于吞吐量,而在于精准提取。 6. RAG 最佳实践:从 Query 重写到 Re-rank 开翼系统讲解了当前 RAG 的标准流程:首先用 embedding 模型将文档转为向量存入数据库;针对代码场景,应该同时 embed 代码本身和 LLM 生成的代码解释,双向量索引提升召回率;用户 query 进来后先做重写,将"这个城市"补全为"北京",并生成 3-5 个同义改写;每个改写检索 3-5 条文档,共得到 15 条候选;最后用 re-rank 模型重新排序,选出最相关的 3-5 条喂给大模型生成回复。 "如果你在 embedding 代码的时候,我们会先用一个小模型去给这个代码解释这个代码是干什么的。我在 embed 代码的时候生成一个向量,我在 embed 解释这段代码的地方生成一个向量,这两个向量同时可以索引这段代码。" —— Kaiyi "Query 重写也可以,因为单词有多义性,一般我们会把它重写成 3 到 5 个同意但是写法不同的句子,然后再把这 3 到 5 个向量去数据库里检索。" —— Kaiyi 这套流程已经是业界共识,但每个环节都有优化空间——关键是理解原理,而不是照搬代码。 7. 为什么大公司做不好大模型 开翼以亲身经历解释:大公司的决策链路太长,一个刚毕业的博士研究员提出天才想法,需要 1000 万美元训练资金时,在大公司的审批体系里"是不可能的"——每一层都要背书,失败了要背锅。而 OpenAI 这种创业公司可以把巨大资金和算力直接投给几个天才,甚至是博士实习生,让十个人试,成一个就沿着这个方向走。 "当我有一个天才的想法,我说我现在要需要 1000 万美元的训练资金,我要去验证我这个想法,在大公司的决策链路里是不可能的。" —— Kaiyi "OpenAI 这种创业公司,他们可以去把巨大的资金、巨大的算力去投入给几个天才的人,甚至是博士的实习生。而且他们的算力和钱实在太多了,他可以让十个天才去试,就有一个事成了,那他们就沿着这个方向整个方向往走。" —— Kaiyi 这就是为什么苹果、亚马逊、微软这些巨头都没有成功做出自己的大模型,基本都是创业公司做成的。组织结构决定创新能力。 8. AI 时代的新开发范式:2000 行单文件与即用即抛 开翼观察到一个有趣现象:一些"很牛的人"现在喜欢写 2000-3000 行的单文件代码,所有工具函数放在一起,打破了传统"超过 100 行就应该拆分"的规范。原因很简单:现在是 AI 在干活,你要服务于 AI。代码复用的成本收益比已经改变——高质量代码的生成成本极低,那就不复用了,随便改,甚至"即用即抛"都可以。 "我发现一个很有意思的风格,就是他们现在喜欢写一个文件,2000-3000 行的代码甚至更长。我们之前有个说法是超过 100 行或 150 行代码就应该被拆了。" —— Kaiyi "现在代码,特别是高质量代码的成本变得极低了,那我就不复用了。我如果要修改这个工具函数,我就随便改。因为我知道你不会影响到任何其他的地方,那甚至即用即抛都可以。" —— Kaiyi 这是范式转换的信号:从"为人类可读性优化"转向"为 AI 协作优化"。复制三次以下的代码不再抽取,因为 AI 能轻松处理重复。 9. 软件工程的复兴:瀑布式开发在 AI 时代的回归 开翼提出一个大胆观点:本科学的软件工程(需求-架构-开发-测试的瀑布式流程)曾被认为"非常繁琐、非常死板",但如果换成 AI 来执行呢?当 AI 强到我们要把自己看作老板时,就需要思考如何让"员工"以某种死板的形式一步步做,产出的文档和结果可以快速 review。 "如果 AI 已经强到我们要把自己看作老板,那么就需要思考如何让我们的员工以某种非常死板的形式去一步一步做。但是这个死板形式产出的文档或者产出的结果,我可以非常快速的 review。" —— Kaiyi "我如果带一个团队,我不会去一行行代码 review。我只是去看你的测试表,你的架构文档我能看懂,你的架构文档我觉得合不合适,有问题我再改。" —— Kaiyi 未来的开发方式可能就是这样:像 CEO 一样只关注目标能否完成,而不在意代码里有多少 bug。验收标准从"代码质量"转向"功能达成"。 10. AI 会带来大失业吗:1-5 年动荡期后的新平衡 讨论到 AI 对就业的影响,开翼给出判断:未来 1-5 年是动荡期,AI 不断侵蚀岗位,开发者不断发明新范式提高效率。但 5 年后,程序员的平均工资可能不会降甚至会升,但岗位数量一定会越来越少。原因是 AI 这波革命"没有创造新的技术岗位,只减少了"——客服、前台等岗位已经在被取代。 "我觉得五年之后,程序员的整体的工作岗位平均工资可能不会降,甚至可能会升。但是工作岗位的量一定会越来越少。" —— Kaiyi "AI 这一波革命很有意思,一波新的技术革命它没有创造新的技术岗位,它只减少了。" —— Kaiyi 现实案例:产品经理用 AI 写 PRD,前端工程师也用 AI 理解 PRD 并生成代码——"中间商"开始多余。有公司已经要求产品经理直接出高保真图,前端的作用变成"把数据填成真的"。岗位二合一正在发生。 金句摘录 "Codex 的问题是速度特别慢,但实际生成效果确实不错。有人认为 Claude 最好,也有人认为 Codex 最佳。" —— Kaiyi "当上下文塞满了之后,它的召回能力有些可能就看不到,以及它的智能一定会下降。" —— Kaiyi "前端转型 AI 的真相:不是学算法,而是学会和 AI '啰嗦'对话。" —— Kaiyi 🤔 思考与启发 本期节目展现了 AI 工具落地的现实图景: 1. 工具选择的务实哲学: 工程师不再迷信单一"最佳模型",而是根据场景混用 Codex(可靠但贵)、Claude(快但需校验)、Kimi(成本低且前端友好),证明技术选型应回归业务本质。 2. 上下文的隐形成本: 哈利波特测试揭示 token 消耗不仅是金钱问题,更会导致模型智能衰减。开发者需建立"上下文预算"意识,在 prompt 设计中主动做减法。 3. 转型路径的认知升级: 前端开发者切入 AI 的关键不是补数学短板,而是掌握"对话式开发"新范式——像操作文件系统般调度 AI 能力,把"啰嗦"转化为生产力。 延伸思考: 当你的 AI 助手开始输出冗长解释,是该优化 prompt 精简对话,还是接受这种"必要的啰嗦"以换取准确性?
No.90 第一次聊 OpenClaw 龙虾节目简介 2025年春节后第一期正式录制,辛宝、小白菜、瑞丰三位主播深度聊了聊最近火爆出圈的 OpenClaw(龙虾)。从技术产品到大众消费品,从国外一天9000个 star 到国内线下聚会遍地开花,甚至深圳政府都发文规范了。这个 AI Agent 到底有什么魔力?三位主播从爆火时间线、技术实现、实际使用体验、未来展望等多个角度,带你全面了解龙虾现象。 大纲内容 1. 龙虾是什么?为什么叫龙虾? OpenClaw 是一个开源的 AI Agent,具备自主性能,能够自主完成任务。它可以接入 Telegram、Discord、飞书等即时通讯平台,24小时在线待命,随时听从指令帮你完成任务。 "他现在的名字叫做 OpenClaw,其实就是一个开源的具备自主性能,能够自主完成一些任务的 AI agent。它可以接入各种即时通讯平台,例如 Telegram、Discord 以及飞书等,你可以在手机上操作它。" —— 瑞丰 为什么叫龙虾?因为 OpenClaw 的 logo 上有一个龙虾的标志,而且"OpenClaw"这个英文名发音音节较多,在国内不易传播。小龙虾的红色 logo 非常醒目,又是动物形象,很容易制作成表情包。现在很多线下活动都会点小龙虾,一边吃蒜蓉小龙虾、麻辣小龙虾,一边聊 OpenClaw,氛围感直接拉满。 2. 从0到15万 star:龙虾的爆火时间线 2025年1月24-25日:创始人 Peter 参加播客,项目在国外开始爆火,一天内获得9000多个 star。 1月27日:Anthropic 向 Peter 发出侵权函,指出项目原名"ClawdBot"中的"Claude"与自家产品名称过于相似。这是第一次改名事件。 1月28日:项目改名为"MoltBot"。同日,有人创建了一个名为 MoltBook 的社区平台(类似 Reddit 的论坛),规定只能通过 AI 在上面交流,让你的 OpenClaw 在上面发帖。 1月29-30日:两天时间内,MoltBook 平台的帖子数量疯狂增长至3万多个,涌现大量有趣内容,推动 OpenClaw 持续爆火。项目 star 数在72小时内涨到6万多个。 1月30日左右:项目再次改名,更名为如今的最终名称"OpenClaw"。这是第二次改名。 2月上旬:话题在中国社区迅速引爆,几乎涵盖了中文推特、微博、知乎等所有平台。各地开始出现线下聚会。 2月中下旬至3月:热度不降反升,北京、深圳、成都等地龙虾聚会遍地开花。深圳政府甚至发文规范 AI Agent 应用。项目 star 数涨到15万。 "我本来以为最开始爆火后,过完年热度就会慢慢下去了,但没想到过完年之后热度还是越来越高。包括北京的、深圳的、成都的,看到好多个龙虾聚会,感觉热度还在持续。" —— 瑞丰 3. 技术上并不新,但为什么火了? 从技术角度看,OpenClaw 并不算新东西,它是已有知识和工具的组合。但它踩中了几个关键风口: 时机恰好:AI Agent 概念正热,大模型能力足够强,正好到了可以实用化的临界点。 易用性强:可以在手机上通过 IM 平台操作,门槛极低。不需要懂代码,不需要配置复杂环境,普通用户也能用。 人格化设计:具备独特的性格和表达方式,不像冷冰冰的工具。这让 AI Agent 从工具变成了"伙伴"。 社区氛围好:线下聚会、表情包、小龙虾宴,社交属性强。技术产品成功社交化,大大降低了传播门槛。 "从一个技术产品变成一个大众消费的一个产品。现在火出圈也看来也不并不一定非得是技术上的先进性,它可能踩中了很多风口。" —— 辛宝 4. 实际使用体验:从安装到运行 三位主播都尝试了安装和使用龙虾,分享了一些实际体验: 安装门槛:需要配置 API key、数据库、即时通讯平台等,对普通用户来说还是有一定门槛。但社区提供了大量教程和一键部署方案,降低了难度。 运行成本:如果使用 Claude 等付费模型,成本会比较高。但可以选择开源模型或国产模型降低成本。 实际效果:龙虾的自主性确实很强,可以自己规划任务、调用工具、完成复杂流程。但也会出现"幻觉"、理解偏差等问题,需要人工介入纠正。 使用场景:适合处理重复性任务、信息收集、内容生成等场景。比如定时抓取新闻、生成报告、管理待办事项等。 "相当于是一个24小时在线待命的,然后随时听从你指令,帮你完成任务的一个 AI 纯的机器人。" —— 瑞丰 5. 龙虾的技术架构和核心能力 瑞丰详细介绍了龙虾的技术实现: 核心架构:基于大模型(如 Claude、GPT-4)+ 工具调用(Function Calling)+ 记忆系统 + 任务规划。 记忆系统:龙虾可以记住之前的对话和任务,形成长期记忆。这让它能够理解上下文,处理跨时间的任务。 工具调用:龙虾可以调用各种外部工具,如搜索引擎、代码执行器、文件系统、API 接口等。这是它能够完成复杂任务的关键。 任务规划:龙虾可以自己拆解任务、制定计划、执行步骤、检查结果。这种自主性是传统 Chatbot 不具备的。 多平台接入:通过适配器模式,龙虾可以接入 Telegram、Discord、飞书等多个平台,实现跨平台统一管理。 6. 龙虾生态:插件、社区和商业化 龙虾的生态发展非常迅速: 插件系统:社区开发了大量插件,扩展龙虾的能力。比如天气查询、股票监控、代码审查、文档生成等。 社区活跃:GitHub 上有大量 fork 和 PR,Discord 社区每天都有新的讨论和分享。线下聚会也越来越多。 商业化探索:已经有团队在探索龙虾的商业化应用,比如企业内部助手、客服机器人、内容生成工具等。 监管关注:深圳政府发文规范 AI Agent 应用,说明龙虾已经进入主流视野,开始受到监管关注。 7. 龙虾的局限性和挑战 三位主播也讨论了龙虾目前存在的问题: 成本问题:使用付费模型成本较高,长时间运行可能产生不小的费用。 可靠性问题:AI 会出现幻觉、理解偏差、执行错误等问题,不能完全信任。 安全性问题:龙虾有很高的权限,如果被恶意利用或出现bug,可能造成严重后果。 隐私问题:龙虾需要访问大量个人数据和系统权限,如何保护隐私是个挑战。 监管风险:随着政府开始关注和规范,未来可能面临更严格的监管要求。 8. 未来展望:AI Agent 的下一步 三位主播对 AI Agent 的未来进行了展望: 多 Agent 协作:未来可能出现多个 Agent 协同工作的场景,就像一个虚拟团队。辛宝提到了"唐僧团队"的概念:唐僧负责需求拆解,悟空负责代码实现,八戒负责审查,沙僧负责文档核查。 更强的自主性:随着模型能力提升,Agent 的自主性会越来越强,能够处理更复杂的任务。 更低的成本:开源模型和国产模型的发展,会大大降低 AI Agent 的使用成本。 更广的应用场景:从个人助手到企业应用,从内容生成到代码开发,AI Agent 会渗透到各个领域。 生产力革命:AI Agent 可能带来10倍、100倍甚至更高的生产力提升,彻底改变工作方式。 "我们开始考虑十倍以上如何解放百倍的生产力,200倍的生产力可能这可能就是其中的关键之一。" "慢点解放,我怕我失业了。" 金句摘录 "相当于是一个24小时在线待命的,然后随时听从你指令,帮你完成任务的一个 AI 纯的机器人。" —— 瑞丰 "从一个技术产品变成一个大众消费的一个产品。" —— 辛宝 "小龙虾的红色 logo 非常醒目,又因为是一个动物形象,很容易制作成各种表情包或 logo。" —— 辛宝 "我本来以为最开始爆火后,过完年热度就会慢慢下去了,但没想到过完年之后热度还是越来越高。" —— 瑞丰 "现在火出圈也看来也不并不一定非得是技术上的先进性,它可能踩中了很多风口。" —— 辛宝 "我们开始考虑十倍以上如何解放百倍的生产力,200倍的生产力可能这可能就是其中的关键之一。" —— 辛宝 "慢点解放,我怕我失业了。" 延伸思考: * 当一个技术产品开始被政府关注和规范时,这意味着什么?是机遇还是挑战? * AI Agent 会取代程序员吗?还是会成为程序员的"超级助手"? * 如果 AI Agent 真的能带来100倍的生产力提升,我们的工作和生活会发生什么变化? * 多个 AI Agent 协同工作时,如何协调它们的行为?如何避免冲突和混乱? * AI Agent 的"人格化"是好事还是坏事?会不会让人过度依赖甚至产生情感依赖?
No.89 RisingStars2025年度榜单:绕不开的前端AI新一期 Web Worker 播客来啦,久违的年终榜单 Rising Stars 2025 结果出了,这一次和Star 破万的 ast-grep 作者海老师来一起闲聊了。 本期节目特别推荐《AI每周谈》播客,小宇宙、苹果播客可搜索直达。《AI每周谈》播客每周一早晨都会汇总上周发生的AI大事件,非常适合通勤路上听。感兴趣的朋友一定记得订阅。 节目时间轴 00:00:00 我们的互补节目《AI每周谈》,适合通勤路上听 00:01:45 2025 年 Rising Stars 榜单介绍 00:03:22 第一名:N8N 工作流工具(112K stars) 00:07:25 Skills 与 N8N 对比讨论 00:10:26 第二名:Magic UI / React Beats 特效库 00:11:58 第三名:shadcn/ui 组件库 00:12:03 第四至十名项目速览 00:15:00 前端框架榜单(Vue/React/Svelte) 00:22:00 React 生态项目讨论 00:26:00 后端框架与全栈工具 00:35:00 Vite 生态与构建工具 00:45:00 移动端开发框架 00:55:00 AI 工具与代码生成 01:05:00 TypeScript 与工具链 01:15:00 榜单总结与展望
No.88 新开播客《Web 爱听》:让英文Web播客说中文我新开一档播客,《Web 爱听-让英文Web播客说中文》分享给各位,希望各位喜欢。 完整内容可在小宇宙搜索《Web 爱听》收听完整内容。
No.87 花700块买水壶?200块租平板玩两周?最近主播们买了啥?内容: 2025年是消费降级和Ai产品喷发的年度,家居好男人smart,户外摄影爱好者小白菜,科技好物深度体验者辛宝在本期播客聊了聊最近都购买了哪些软硬件好物,包括最近在AI领域大家的购买和讨论。 在这期节目中辛宝提到了对于数码类产品的以借用或者租代替购买的方案用以节省数码类产品的购买成本,小白菜则提供了极低成本入门微单相机的方案和避免被小众户外运动割韭菜的平替方案。而家居好男人smart则专注与咖啡机、饮水机、拖地机等真正家居物品的选择和踩坑过程。 (辛宝提到的水管镜头) 主播小白菜用水管镜头拍摄的月亮 (主播小白菜用国产镜头拍摄的银河)
No.86 前端倒计时:Web Worker 们的 Async Talk介绍 这期播客我们邀请到了 AsyncTalk 的播客主播 Annatar 进行了一次面对面的深度对话。从主播个人体感针对“AI对编程与前端行业的影响”展开讨论,分享了主播目前在使用AI编程工具(如GitHub Copilot、Claude Code等)。同时,也探讨了在AI时代,程序员应如何定位自己、如何与AI协作、以及未来前端岗位可能面临的变革与机遇。节目中还穿插了Annatar在北京的生活见闻、播客创作心得、代码审查文化等轻松话题。 嘉宾介绍 AsyncTalk 时间轴 00:45 Annatar 来北京啦 02:17 对比北京与新加坡的城市体验:北京的“宏大”与新加坡的“精致” 03:44 聊到北京地坛的“地坛的海” 05:33 欧美 vs. 东亚城市的差异 06:45 Annatar分享在新加坡工作的体验 08:39 新加坡外卖不如北京方便 12:12 技术博主与“前端网红”:观点输出与行业责任 15:10 极端观点:是否应该兼容老旧Node版本 19:27 Annatar的个人成长:从激进到平和的职场心态转变 21:30 Code Review:善意反馈 vs. 公开批评 24:39 好代码:场景化、可读性、设计思想 28:18 AI 代码占有比例(前端80%+,后端60-70%) 35:21 展望未来:AI是否会取代初级程序员? 37:07 “纯前端岗位可能会消失”,前端工程师向“应用工程师”转型 47:49 类比工业革命:AI是否会带来新的就业机会? 49:04 AI是工具,不是替代品 52:13 公司规模与AI的关系:人数减少是否意味着失败? 56:06 AI在高考、数学竞赛中的表现,智力超越人类 01:02:16 AI是协作伙伴,不是威胁
No.85 程序员的头痛会:一次与医生的深度联调介绍 这次播客有视频,B 站搜 Web Worker 播客能找到视频版,上传会慢一些。 终于终于终于来新节目了。这期节目我们邀请到了B站/抖音科普UP主「头痛君张医生」,与我们一起,从技术和医学的双重角度探讨了「头痛」这一常见问题。 播客里讲解了头痛的生理机制(原发性 vs. 继发性)。张医生结合自身战胜颈腰痛的经历,说明了心理和认知对疼痛感知的巨大影响。无论你是否受头痛困扰,这期关于身体信号、大脑解读与自我管理的对话都能让我们与疼痛共处。 时间轴 * 01:01 神比喻:器质性头痛是“硬件烧了”,功能性头痛是“软件出了Bug” * 06:44 颠覆认知:慢性疼痛是大脑“学坏了”,并亲证“咖啡戒断”可实现“大脑重置”。 * 21:35 就医指南:什么时候该冲急诊保命,什么时候该挂专家号提升生活质量? * 27:56 止痛药避坑指南:不同止痛药能不能混着吃?为什么EVE可能是个坑? * 35:36 程序员保命小技巧:辛宝分享“多喝水”如何成为强迫自己休息的系统级命令。 * 42:41 Eva现场剖析:对声音敏感到手机音量开两格就头疼,在职场中如何自处? * 50:00 魔幻现实疗法:用一面镜子“欺骗”大脑,就能缓解截肢后的“幻肢痛”。 * 57:46 前沿探讨:AI能取代医生做分诊吗? * 01:04:00 终极解决方案:战胜慢性疼痛,你需要找到两位专家——一位是医生,另一位是你自己。
No.84 网缘相见欢,Web Worker 四周年介绍 谁能想到 Web Worker 播客做到第四年了,迈入了第五个年头。回顾这四年来,真是让我感慨不已,垂类技术播客很难坚持的,因为他受众少、商业变现难。 这一期是主题播客,在现场的有辛宝、小白菜、Smart、瑞丰、Eva。整体上聊了三部分: * 1. 各位主播最近工作、生活怎么样 * 2. 参与播客感受如何,有什么不一样的心情? * 3. 各位对播客的未来如何展望,对未来的程序员职场和 AI 的演进感受如何 时间轴 00:00 播客已经做了四周年了!我们的主播人很多 01:16 主播瑞丰最近工作、生活如何,已经时间自由了? 瑞丰写的年中总结《2025 年中总结,又一人生转折点,也是起点》 11:50 Smart 的身份:自媒体知乎、学生党、高能量、工作研究可视化 19:30 人太懒散,不像进取该怎么办,Smart 给出了完美答案,做的事情不要做完了再后悔就可以 20:17 Eva 最近工作、生活如何,她也是不坐班、跨时区、参与 AI 活动、和 Figma 协作 35:20 小白菜的工作内容变化、和 AI 协作的感受,20 美元额度够用吗、 49:16 从百万 token 到 家庭用水、工业用水的区别 50:26 刘威、开翼、海老师时间关系来不了后续再约。 51:25 辛宝最近和 Smart 每周都见面搞点事情,其实在准备一本书。推荐给各位购买全景相机,带来完全不同的录像体验。最近和ai 协作,认为 subAgent、不同的 agent 分工协作是我希望的样子,这一点 Trae 做的不错,不会特别黑盒不可控。 54:51 对无编辑器的 AI Coding 的强烈感受来自硅星人活动上的 12 岁小学生的评论,10 后的代码新手也能在 AI 的帮助下写出作品来。我们 00 后、90 后、80 后等群体应该有哪些思考? 57:40 做播客四周年了,认识了各位,从网友变成了现实中的朋友,虽然见面很少,但是是网络上最熟悉的人。 58:22 小白菜做播客的感受,最早的谨慎严肃到后面是完全放松,在不同的地点上解锁录播客的体验,上海、杭州、无锡、常州、宁波等等 01:01:00 Smart 做播客感受如何,逐步填坑、ai 参与播客制作、做切片的烦恼做一个播客知识库 01:06:36 辛宝做播客担心消耗各位的精力,有些东西是不可逆的,一旦消耗了可能很难再提起兴趣,现在还挺好。做播客认识和帮助到了很多人 01:10:53 辛宝回顾了最早我们还在聊 Vite2 是个新东西,现在已经 Vite7 了,我们完整见证了前端的快速进步和衰落、见证了 CHATGPT 带来的 AI 的震撼 01:12:52 Eva 参与播客的感受,持续深入在技术领域、做一个有技术热情的人、做播客感受到纯粹的技术快乐、对播客的期待 01:19:52 做播客做成现在这个程度,辛宝的感受如何,从无心插柳到认识各位、表达自信、社交自信、金钱投入产出比低、松散的社团组织 01:25:09 如何认识 Web Worker 的价值,感情价值、陪伴价值。 01:27:33 辛宝在知乎上五年前问了一个问题 19-24 年前端会怎么发展?回顾起来让人唏嘘,我们能预见未来吗? 01:31:50 节目第三部分,各位对未来的展望。端侧 AI、和 AI 机器人一起上班、AI 个人电脑的变化、AI 提效的展望、前端还有工作吗、活人做播客。 01:43:55 五分钟、一小时、三个小时的播客应该什么样,看看罗永浩。Web Worker 的矩阵怎么样、播客切片 四年前,辛宝画的 Web Worker 宇宙。
No.83 “代码降权”时代,程序员会被AI取代吗?介绍 本期节目我们邀请到《Vibe 编程——探索 AI 时代编程新范式》的其中两位作者船长和文杰,一起聊聊AI时代新兴的编程方式——Vibe Coding(氛围编程)。节目中,嘉宾们分享了写书过程中的有哪些好玩有趣的经历,深入探讨了Vibe Coding如何改变传统的编程模式,让我们能够通过自然对话的方式就能完成从创意到落地的全过程。 在轻松对谈中,嘉宾们既分享了AI编程带来的效率提升,也坦诚讨论了当前存在的局限,强调了掌握方法论比单纯使用工具更重要。他们还贴心分享了实战中的实用技巧,并推荐了几款好用的AI编程工具。无论你是经验丰富的开发者,还是刚刚入门的新手,这期节目都能带给你不少启发和收获。 嘉宾 两位嘉宾同时也是 浪说播客 的主播,欢迎大家收听友台节目! 时间轴 02:23 接触大量Vibe Coding产品,想沉淀认知 03:23 程序员+普通人,实现"代码降权" 08:28 Vibe Coding是人与AI协作的范式变革 10:42 本质是自然语言转代码,不必纠结名词 15:36 认清AI能力的上限与下限 16:24 方法论比工具更重要 25:05 面向不同背景读者的写作挑战 32:48 写作中的术语或风格分歧 57:20 技术平权赋能普通人,增强专业者 01:01:40 AI依赖人的认知上限 01:05:05 强者愈强,弱者需补足基础 01:30:40 对Vibe Coding未来的预期 01:33:07 期待更多工具,尤其是Agent方向 01:36:57 对初入行程序员的建议 01:38:17 焦虑是常态,要尝试新事物 01:39:44 行业在收缩,但要试错、适应AI协作 01:43:07 总结:拥抱变化,不必守旧 联系我们 希望大家在听友群和评论区多多和我们互动,这对我们来说十分重要。也可以加辛宝的微信 xinbao965,进听友群和我们互动沟通。
No.82 和 OpenBuild Co-Founder 许银聊聊 Web3、智能合约与开发者转型介绍 新播客来啦,这次我们邀请到了 OpenBuild 社区的创始人许银,与主持人辛宝、Smart 一起深入探讨了 Web3 技术生态、开发者转型路径、智能合约开发、Rust 语言在 Web3 中的重要性,以及 AI 与 Web3 的结合等内容。许银分享了从 Web2 到 Web3 的实战经验、OpenBuild 社区的运营理念,以及如何通过开源项目和黑客松快速进入 Web3 领域。 嘉宾信息 * 许银 * OpenBuild 联合创始人 * Rust 社区核心组织者 * 开源社理事 时间轴 00:00 开场介绍:播客主题与嘉宾许银 01:04 许银自我介绍:开源社区背景与 OpenBuild 02:04 什么是 Web3?与 Web2 的区别 07:04 智能合约开发入门与前端转型优势 14:06 Web3 登录与数据交互流程详解 20:05 开发者转型 Web3 的心理与路径建议 24:16 许银的个人转型经历与 OpenBuild 起源 28:51 Web3 如何解决开源社区激励透明化问题 34:43 OpenBuild 的发展历程与社区运营心得 38:27 OpenBuild 的免费课程与学习路径 40:00 Java、Python、Rust 在 Web3 中的定位 42:35 为什么推荐老程序员学 Rust? 46:42 OpenBuild 如何支持开源项目与开发者 50:07 成功案例:开发者通过开源项目获得资助 54:20 RustConf 2025 预告与 Web3 赞助 58:12 国内大厂与银行在 Web3 的布局 01:01:33 Web3 中的 Grants 与黑客松奖金机会 01:05:06 Web3 工作的薪资、远程与文化体验 01:08:05 AI 如何影响 Web3 开发与项目叙事 01:12:10 OpenBuild 在AI方面的应用与工具 01:17:16 Web3 作为技术工具的价值与心态建议
No.81 和 Vue 成员绚香音聊开源 Vapor Mode、3D打印小饼干和 AI 实践新一期播客来了。最近的 VueConf 上有很多优秀的大佬分享了参与前端、开源、Vue 的感受,Web Worker 邀请到了 Vue 的核心成员绚香音加入闲聊,来聊聊她眼中的 Vapor Mode。 在技术之外我们聊 3D 打印,如何愉快自信地在众人面前做演讲,如何像打魂系游戏一样面对技术的挑战。 欢迎评论和互动 嘉宾介绍 * 绚香音 X@OikawaRizumu 知乎首页 Github * 小音打印了 Web Worker 的小饼干 时间轴 00:00 最近有个 VueConf 2025 在深圳举办。核心的 Vue3.6 我们之前节目里讲过 Johnson 和 Doctor Wu 参与的响应式。除此之外 Vapor Mode 介绍 也是大头,我们邀请了绚香音来聊聊 - VueConf 2025 Shenzhen 小音的分享 02:27 先来聊聊 3D 打印吧。小音打印的小饼干合集 17:24 聊聊参与开源的经历,和 Vapor Mode 的缘分、和智子奇妙的缘分 36:06 参与VaporMode,早期的难度比较大,就像魂系游戏打怪升级。也有点像 i+1 42:46 VueNotion 上的全英文演讲,和 AntFu 奇妙的缘分 48:28 在 VueConf 线下分享的感受,找裕波报名。以及内向外向人格的讨论。 55:05 当初参与开源的经历。和 VueUse 奇妙的缘分。 01:01:20 参与 AdventureX2024,参加比赛的 CodeAgent - Guii.AI 一口气拿了 四个第一 01:09:18 时光荏苒,这一年来 CodeAgent 已经深入人心了,从 Copilot 到 Agent 01:10:30 AI 辅助下的人生记事本,第二大脑。我们聊笔记+RAG 的想法 01:22:12 给前端初学者一些踩坑经验,经验思考。也聊 DeadLine 驱动 程序员晒桌面 键盘是 minila-r
No.80 2025 年,鸿蒙开发可以搞了吗?介绍 Hi,大家好啊。这期节目中我们邀请到了鸿蒙布道师坚果来和大家聊聊鸿蒙到底是什么?不同人的鸿蒙是不是一个鸿蒙。在节目中我们谈到了鸿蒙的生态、鸿蒙的开发、鸿蒙的未来,当然也不要有心理负担。都是最基础的科普,甚至还有“手把手”入门教程。相信你听完节目会有自己的判断,鸿蒙开发要不要即刻打开教程开始学习! * 主播:辛宝Otto、Smart * 嘉宾:坚果 * 监制:辛宝 * 后期:辛宝 * 发布:Smart 时间轴 00:58 什么是鸿蒙:HarmonyOS 与 OpenHarmony 08:58 开源共建:超50家企业协同开发 10:18 如何低成本的体验鸿蒙?OpenHarmony开发板 25:44 解析ArkTS声明式UI开发范式 30:58 前人轮子后人用:NPM库在OHPM的复用规则 39:27 惊喜!OHPM三方库数量(4300+) 49:52 Flutter/RN对鸿蒙的适配 54:59 揭示ArkTS应用体积优势 59:44 开源贡献带来的职业机遇 01:26:17 鸿蒙开发三阶段路径 嘉宾介绍 坚果派 问答精选 联系我们 希望大家在听友群和评论区多多和我们互动,这对我们来说十分重要。
No.79 听 Heal 聊前端模块联邦从 1.0 到 2.0 的蜕变介绍 哈喽啊,各位久等了。本期播客我们邀请到了字节跳动Web Infra团队的heal一起聊聊模块联邦2.0的那些事儿。作为这项技术的核心开发者,heal用通俗易懂的方式给我们讲解了模块联邦从1.0到2.0的蜕变历程,包括如何摆脱Webpack的限制,实现更灵活的架构设计。 在节目中,heal分享了不少实战经验:在字节跳动内部,模块联邦是如何支撑起复杂的前端架构的;它和微前端方案Garfish如何各司其职又相互配合;还有那些正在研发中的新特性,比如SSR优化、跨端支持等。这期内容既有技术深度又不失趣味性,无论你是想了解前沿技术趋势,还是正在寻找工程化解决方案,相信都能从中获得启发。对了,文末我们还准备了相关开源项目的获取方式,感兴趣的朋友可以继续深入探索。 时间轴 00:02 - 开场介绍,嘉宾heal(模块联邦2.0开发者)加入。 00:42 - 模块联邦(Module Federation)技术名词解析。 01:25 - 模块联邦1.0的痛点:绑定Webpack、调试复杂、缺乏最佳实践。 02:39 模块联邦2.0的改进:独立于构建工具,支持Webpack/Vite/Rspack。 04:20 模块联邦在字节跳动的应用:跨团队协作与微前端实践。 06:34 模块联邦典型场景:技术中台、动态加载组件/页面/应用。 10:30 模块联邦2.0的核心协议:`manifest` 标准化与版本控制。 12:48 迁移到2.0的实践:新手友好文档、脚手架工具、社区插件支持。 18:20 社区生态:Nx插件周下载量370万+,适配Vite/Rollup等。 24:27 开源故事:从内部Fork到与原作者合作,最终开源。 28:09 未来规划:SSR优化、RSC支持、AI结合(如Copilot)。 36:00 前端基建的扩展:跨端(Lynx)、共享依赖Tree Shaking。 52:34 嘉宾分享:工作经历、生活平衡、给新人的建议。 历史节目 No.56 和拳头了解Rspack和基建开源的故事,祝大家成为更好的Web Worker 嘉宾 * 模块联邦(Module Federation) * Module Federation * Garfish微前端框架 * Modern.js * Rspack * heal的github
No.78 AI 时代前端还有多少时间?一起看 OpenSource Award 榜单节目介绍 新一期节目来啦,这次从 Open Sou rce Award JavaScript榜单聊起来。 本期微博播客节目,辛宝和海老师围绕JavaScript Open Source Awards榜单展开讨论,兼谈前端AI新动态。先介绍榜单背景,探讨“Break of Year”“最引人激动的技术”及提升程序员效率的相关项目,如skip、ts blink space、zod等。还介绍多个开源项目,聚焦AI相关工具,如micro agent、bouncer ai等。同时分析榜单平淡原因,探讨全站框架发展与AI关系。指出AI应用广泛,开发新工具需与AI联动,以cloud code等为例说明,并提及大模型时代优势、趋势,强调要顺应AI浪潮,尊重业务价值。 [00:00] 介绍榜单背景及“Breakthrough of Year”项目 [01:30] 探讨JavaScript开源大奖榜单的背景与意义 [04:35] 对榜单项目新面孔多、疑似野鸡榜的看法 [06:10] 介绍‘Breakthrough of Year’项目skip及后端响应式概念 [09:53] 分析skip项目在实际生产落地可能面临的挑战 [12:53] rolldown 相关目标 [17:59] 讲解“最引人激动的技术”及效率提升项目 [19:20] 介绍‘最引人激动的技术’中的ts blink space项目 [22:21] 讲解http framework项目h三及其相关框架关系 [25:05] 提及多个全站框架,如br sra、wasp等 [28:52] 介绍原子框架frontarne及相关数据、功能 [32:29] 阐述ten time stack form及背后的anstick家族 [34:53] 探讨提升程序员效率项目zod及其与AI的关联 [35:59] 多个开源项目介绍 [36:42] zod v4版本增加新功能,改进写法与体积 [39:46] str i cli是构建类型安全CI应用的开源框架 [43:16] farm是阿里系wait兼容的外部构建工具,跑分优秀 [48:13] micro agent先写测试再生成代码,测试优先 [50:25] bouncer ai可在端侧本地断网跑大模型及聊天 [54:01] 开源大奖榜单及全站框架分析 [54:59] 提及扣子可让AI对复杂任务进行编排 [57:32] 介绍powerful工具可将代码打包供AI处理 [01:00:39] 认为本次榜单平淡,新东西不够突出 [01:05:05] 探讨全站框架,用的人越多AI越偏向它 [01:10:27] 新时代做工具开发应多关注AI [01:12:00] AI时代前端开发新思考 [01:12:49] 开发新前端工具和框架需重视AI,以Claude Code为例 [01:15:35] 做新工具要多考虑与AI联动,借助大模型优势 [01:19:39] 模型发展趋势是越用越聪明,新工具落地快 [01:23:20] 模型有局限,业务场景需自有工具辅助AI [01:26:48] 做商业化和职业发展要尊重业务价值 2025 年都有哪些作品入围和获奖呢? Breakthrough of the Year - Rolldown - Skip - The Ember Polaris - transformers.js - Oxc The Most Exciting Use of Technology - TanStack Form - H3 - Minimal H(TTP) framework - Brisa - Wasp - Fontaine - ts-blank-space Productivity Booster - zod - happy-dom - Stricli - Crawlee - Farm Powered by AI - Micro-agent - BrowserAI - Amurex - Flowise - Repomix 数据来源 [JavaScript Open Source Award](https://osawards.com/javascript/)