前特斯拉 AI 总监、OpenAI 创始成员 Andrej Karpathy 最近分享了他用 LLM 管理个人知识库的方法,引发广泛关注。这套玩法颠覆了传统的“AI 辅助”模式——你只管收集资料和提问题,剩下的组织、整理、维护全交给 LLM。
Karpathy 的工作流程是这样的:把所有源文档扔进 raw/目录,让 LLM“编译”成 wiki(一堆.md 文件),然后用 Obsidian 查看。关键是 wiki 里所有内容都是 LLM 写的和维护的,他基本不手动编辑。等 wiki 够大了(比如 100 篇文章、40 万字),就能问各种复杂问题,LLM 会去翻答案。他还让 LLM 跑“健康检查”,找数据不一致的地方、补缺失数据、发现新文章候选。
最狠的一句话:wiki 基本不用你手动编辑,那是 LLM 的地盘。知识库不再是你的笔记本,而是 AI 的工作台。每次问答都会增强知识库,形成正向循环,你的探索会积累,不会浪费。
Lex Fridman 回复说他做播客研究也这么干,证明这套方法真能落地。Karpathy 认为从个人脚本到产品,中间还有很大空间,应该有人做成真正的产品。
原文链接:x.com
