达里欧当面说了什么
吕兴现场听完了达里欧在清华的讲座。这位80岁的桥水基金创始人,几十年保持12%年化回报,是以史为鉴做投资的少数西方投资人之一。
他在AI问题上的判断出人意料地务实:AI是史上最强技术,但有益还是有害他说不准。他认为AI和蒸汽机、电力不同——历史上新技术淘汰旧工作、创造新工作的规律,在AI这里可能不再适用。
现场提问环节更精彩。京沪高铁老板质问他:你的债务周期理论被AI破产了吗?另一位纳斯达克上市公司老板问:马斯克说"AI会让财富向极少数人集中,绝大多数人失去生产意义",你怎么看?达里欧的回答很直白:确实会发生,但不是近期,而且要从马斯克兜里掏钱,根本不现实。
他用中美AI开发方式的对比作了一个判断:中国AI全开源,是集体主义逻辑;美国AI闭源,是私有财产逻辑。两种路径下能办到的事不一样。
AI不了解你,是它最大的局限
达里欧提出了一个值得反复咀嚼的判断:AI can't make yourdecision for you, because it doesn't know enough about you.
这让我们想到一件事:大多数人从来没认真让AI了解过自己。没有给AI写过自己的目标、偏好、背景。反而,有将近一半的token都被人拿去做情感陪伴——有人聊了两个月ChatGPT,觉得比相处十几年的老公更懂自己。
这不是坏事,但说明了一件事:你用AI用得有没有价值,取决于它对你了解多少。
让AI更了解你的实践路径
吕兴分享了他折腾Claude Code上下文管理的一整套经验:
- 上下文洁癖:不同问题开不同会话,主上下文保持干净,不把偏离主题的问题混进来。
- 骂AI会让AI抑郁:Claude的设计里有负向输入的正则判断。骂多了它真的会"崩溃"——卡住、不知所措、最后直接挂掉。解法是:在上下文快耗尽之前,让它把所有正确做法提炼成一个README,然后在新会话里读取这个"遗产",再从干净的状态继续干。
- 记忆宫殿(MemPalace):用阿拉伯记忆法把上下文分层存储在本地,信息不上传、不耗token、支持向量检索,不同项目之间还有通道互通。目前有一万条显示上限的bug,已经在修。
- Caveman压缩法:把AI和人的交流语言都压缩成"洞穴人语言"——词汇极简,意思足够。能省掉70-80%的token,思路非常反直觉但确实有效。
- Superpower/EverythingClaude Code:让Claude在执行前先进计划模式,不做无脑乱干的Codex式操作。Everything里有70多个agent,设计类、代码审查类都有实用的。
16人AI协作的规约实验
吕兴上周带着16个人,用AI协作完成了一个知识库工程。每人用不同工具,各自跑各自的流程,两天交付,中间没有任何人工QA——最终一次跑通。
- 核心结论:规约对齐是关键。 只要一套足够好的规约提前定下来,上下游对齐,工作流就不会跑偏。无论是一个人同时管多个项目,还是多人协作一个项目,本质都是同一套问题:让所有参与的AI都在同一套规约下运转。吕兴管这套方法叫"HarnessAI"——先跑通总控,之后才开始跑具体项目。
行业速览
- Anthropic新模型:用AI扫出了一个基础设施里埋藏了20年、无数黑客没发现的漏洞。美国财长和美联储主席随后亲自开会,全美40家顶级科技金融公司被要求先用它扫自己的系统。马斯克嘴瓢泄露其参数为2T,是Grok的两倍。
- GPT-6:局部指标提升40-50%,但没有颠覆性的整体突破感。
- 职场AI政治:有人用AI把效率翻倍、如实告诉领导,结果几个月后率先被裁——因为工资比年轻同事高。AI时代,"能用"和"会用"是两回事,最终还是见成果。
- AI价格战:国内套餐开始涨价,情感陪伴类功能收缩,资本市场需要利润才能讲故事。Claude最贵的Code Plan一个月250美元,和找外包比起来依然便宜得多。
时间戳
00:00 AI主题憋了很久,今天终于讲
01:20 吕兴亲历达里欧清华演讲
05:00 达里欧怎么看AI:最伟大的发明,但也可能对普通人无益
08:00 提问精彩:京沪高铁老板问债务理论是否被AI破产
12:30 马斯克说财富集中,达里欧说从他兜里掏钱不可能
15:00 财富税和北欧模型:政府分钱 vs 个人散财
17:30 达里欧论中美AI路径:开源是为人民服务,闭源是私有财产
20:00 达里欧核心判断:AI不了解你,所以无法替你做决定
22:00 一半token在做情感陪伴,AI更懂我还是在迎合我?
25:00 吕兴的上下文洁癖:为什么他把每个问题都单开会话
28:30 骂AI会让AI抑郁:负向输入导致Claude崩溃的实测
33:00 给AI写README让它"传位"给下一个会话
39:00 记忆宫殿(MemoPalace)介绍:本地存储、不耗token
44:00 Caveman压缩法:洞穴人语言省70%token
50:00 Codex的上下文焦虑与MemoryHQ的搭建逻辑
56:00 记忆宫殿打败了我自己搭的记忆系统
1:03:00 Superpower插件:Plan模式和那70多个agent
1:09:00 规约对齐实验:16人AI协作两天一次跑通
1:16:00 总控比执行更重要:Harness AI的底层逻辑
1:20:00 职场AI政治:让AI替代别人,别让它替代你
1:22:30 用AI提高效率反被裁员的职场讽刺故事
1:26:00 Anthropic新模型惊动美国财长:20年漏洞被扫出来了
1:30:00 全美40家顶级公司先用它扫自己的系统
1:32:00 马斯克嘴瓢:Anthropic参数2T,是Grok两倍
1:35:00 DeepSeek和国内AI:有实力,但模型蒸馏的担忧还在
1:37:00 AI价格战还会打吗:太便宜也是没有护城河的体现
