

文科生AI学习资料大放送,我的那些高质量信息源本期,我们俩聊一聊文科生如何进行AI学习以及去哪里寻找合适自己的学习资料。在AI快速发展的当下,难免会有AI学习的焦虑,但是越焦虑往往越找不到合适有效的学习方法,到头来只会淹没在海量的学习资料之中,只点了收藏,但是知识却在角落吃灰。今天,我总结了我这两个月来的AI学习经验,带你少走弯路,不仅是学习资料的分享,更是学习方法的讨论。 你将听到 l AI信息过载,怎么寻找适合自己的学习内容 l AI学习资料大放送:文字、播客、视频总有一款适合你 时间戳 02:00 为什么“硬学”往往会半途而废? 03:00 三阶段学习法:认知构建、工具实践、项目落地 11:50 信息源推荐(文本类): 新智元、量子位、36氪及Twitter上的Builder博主。 15:00 信息源推荐(视频类): 吴恩达、Karpathy及宝藏博主 18:15 信息源推荐(播客类): 《十字路口》、《罗永浩的十字路口》、《硅谷101》、《WhyNot TV》。 20:13 AI信息是过载的,只有实践是你的护城河。
vol.04 Meta豪购Manus,腾讯引援姚顺雨,智谱赴港上市中过去两周,AI圈发生的动荡足以改变未来的格局:Meta豪掷数亿美金收购Manus,扎克伯格亲自下场“抢人”;腾讯引援27岁的前OpenAI核心研究员姚顺雨,试图在模型混战中后发制人;国内大模型独角兽智谱AI、MiniMax开启上市冲刺。这期我们就来聊一聊这两周的一些行业变化~ 你将听到 l Meta的豪赌: 为什么是Manus l 天才入职腾讯: 姚顺雨是谁?他能解决腾讯的“AI焦虑”吗? l 国产模型的冷与热: 智谱AI上市背后的30亿亏损与地缘政治风险。 时间戳 00:36 Meta豪购Manus 06:11 27岁天才姚顺雨加盟腾讯意味着什么? 08:00 腾讯的AI焦虑:混元大模型如何在中大厂竞争中寻求突破。 10:30 AI人才抢夺战 15:00 一年烧掉22亿研发费 19:10 参加AI vibe coding活动的感受
vol.03 你真的会用AI吗?聊聊Prompt和vibe coding为什么你觉得AI不够智能?可能只是你的“打开方式”不对。本期节目,我们将深入探讨Google官方的Prompt指南,并分享总结的独家「ROLE」提问框架,助你从“小白”进阶为“Prompt工程师”。此外,随着Gemini 3的更新,「vibe Coding」(Web应用开发)成为了新风口。亲测开发了三款实用小工具,带你体验“氛围感编程”的乐趣与坑点。 你将听到 l Prompt进阶:为什么你的提示词只有9个词,而大神用了21个? l ROLE框架:角色(Role)、任务(Objective)、限制(Limits)、例子(Example)的排列组合艺术。 l 高阶心法:如何利用“思维链(CoT)”和“负面约束”榨干AI的潜能。 l Web Coding初体验: 文科生如何用“自然语言”和AI一起捏出个性化软件? l Gemini实战: 从口语陪练到买菜比价助手,AI编程的实战案例分享。 时间戳: 00:00 开场:文科生第三周的AI学习汇报,本周关键词:Prompt & Web Coding。 01:30 Prompt工程的核心痛点:为什么你用的AI像搜索引擎,别人用的像专家? 02:50 独家干货「ROLE框架」详解: l Role (角色设定):赋予AI身份,打破平庸回答。 l Objective (具体任务):像甲方向乙方下需求一样清晰。 l Limits (限制与背景):设定边界,避免废话。 l Example (示例投喂):给它看你想要的“样板间”。 06:40 Prompt的4个进阶技巧: l 技巧1:留足思考空间(Think Step-by-Step)。 l 技巧2:负面约束(告诉它不要做什么)。 l 技巧3:强化关键指令。 l 技巧4:持续迭代,把AI当草稿纸。 09:20 Web Coding (Web应用开发) 初体验:什么是“氛围编程”?零基础如何用自然语言写代码。 10:50 Gemini 3 实战案例: 13:10 Web Coding目前的局限性、Bug处理以及未来的可能性。
vol.02 如何“手搓”一个ChatGPT!这周呢,一起来学习的课程是Andrej Karpathy《如何构建chatgpt》,如果你也被像SFT、标注、分词、幻觉这样的名词搞得云里雾里,那么这期节目非常适合你去收听。本期我们将大家拆解构建大语言模型的三个阶段:训练、监督微调、强化学习,一起来了看看大语言模型是如何炼成的! 你将听到: l Andrej Karpathy 是谁?为什么他的课值得听? l 为什么说Token是AI的语言? l 如何通过打分和奖励机制,让AI的回答更符合人类价值观? l AI的幻觉与缺陷 —— 为什么ChatGPT有时候会一本正经地胡说八道? 相关名词: l Large Language Model (LLM):一种通过在海量文本上训练,能够理解和生成自然语言的人工智能模型。 l Token (分词):将文本拆分后供模型处理的基本单位,可以是词、字或子词。 l SFT (监督微调):用高质量问答数据对预训练模型进行微调,使其学会遵循指令、输出有用格式。 l RLHF (基于人类反馈的强化学习):通过人类对模型输出的偏好反馈来训练和优化模型,使其回答更符合人类价值观(安全、有用)。 l Hallucination (幻觉):模型自信地生成看似合理但事实上错误或虚构的内容。 时间戳 01:45 培养AI就像培养天才:智商、情商与自主学习的三阶段类比。 02:30 阶段一:预训练 (Pre-training)。 08:50 基础模型 (Base Model) 的特点:高智商但不懂社交的“书呆子”。 09:40 阶段二:监督微调 (SFT)。 11:30 阶段三:神经网路训练与强化学习 (RLHF)。 15:00 AI的局限性与幻觉。 18:10 解决方案与未来展望。 本期思维导图
vol.01 AI扫盲:文科生现在开始学AI,来得及吗?一个文科生,对科技基本不感兴趣的人,迫于生活的压力,开始了对于AI的学习。创立这档播客,希望能通过自述学习内容的这种方式,敦促自己学习,巩固学习成果(其实主要是怕自己学不下去。 本期,主要是对吴恩达《AI for everyone》课程内容的总结,主要分为两部分,对AI、机器学习、深度学习、神经网络、监督学习等概念的阐释以及它们之间关系的描述。再有就是对与AI产品,比如智能音箱、无人驾驶等运行步骤的了解。不得不承认,AI以后在各方面都是人类的合作伙伴,早了解总是没错的。 也附上这期提到的一些相关概念的思维导图,供大家参考。 本期可能有些理解不准确的地方,也欢迎大家多多指正,但别骂我,我玻璃心。