EP31 巴菲特的前额叶启示录:大模型如何学“自我优化” | Deepseek 理财避坑4

EP31 巴菲特的前额叶启示录:大模型如何学“自我优化” | Deepseek 理财避坑4

12分钟 ·
播放数1101
·
评论数3

大模型到底有多聪明?今天我们聊的是它们“眼高手低”的那些事——能准确挑出问题的“眼”,却有时生成平平的“手”。通过一个超有趣的对话实验,我发现,大模型甚至可以互相“批评与自我批评”,“帮自己纠错”真不是件稀罕事!这一期,我们会深挖巴菲特式价值投资居然能被神经科学解读,还看看如何让AI从“新手作者”进阶“全能写手”。如果你也好奇未来AI能多厉害,或者想知道如何用“自优化”压榨大模型潜力,别错过这次头脑风暴!

00:00  开场及主题引入

  • 欢迎收听,介绍本期主题“大模型的自我纠错”。
  • 话题由一个用DeepSeek R1分析巴菲特投资风格的案例引出。

00:11  大模型“看得准但写得差”,真的不治之症?

  • DeepSeek R1分析巴菲特时提出:价值投资更依赖神经结构,后天训练难起作用。
  • 对比巴菲特的阅读经验,挑战"后天难改变"的绝对论。
  • Grok 3补充,神经可塑性和训练如CBT也能提升理性调控。

03:37  “批评与自我批评”:探索模型互相诊断的协作力量

  • Grok 3对DeepSeek R1提出的修改和优化,修正语言更科学又不绝对化。
  • 模型间互相挑刺背后的“机制”,提升大模型精确度的潜力。

04:53  “眼高手低”问题的剖析:大模型为什么脱节?

  • 生成内容倾向选概率最高的词句,导致“安全但平淡”。
  • 自回归生成(逐步预测)导致本地逻辑合理、整体却不够惊艳。
  • 评估时调用上下文全局视角,却在生成中未能反映。

08:08  “自优化”和“跨模型协作”:如何让模型更灵活?

  • 介绍“自优化”概念:通过多轮反思和修订优化输出。
  • 提到“批评与自我批评”式跨模型合作,像人类团队分工优化内容。

10:30  深度思考vs事后批评:两种提升生成内容的路径

  • 事后批评——生成后再修订。
  • 深度思考——生成前推理,把规划前置。
  • 两种方式结合:从优秀初稿到极致优化。

11:33  模块化AI的探索:用“搭配”解决专项短板

  • DeepSeek R1与Claude或Gemini协作的案例:推理与生成分工合作。
  • 展望模块化AI组合式发展的潜力,更接近人类团队协作方式。

12:26  结语及未来畅想

  • 总结:大模型的“批评与自我批评”机制,提高了内容生成能力。
  • 展望自动化优化AI的未来,让模型更聪明、更贴心。
展开Show Notes
Ass嘟嘟
Ass嘟嘟
2025.2.28
每个AI擅长的不一样,各取所需效果更好。

「大模型」
价值投资需要的性格特质——在群体癫狂时保持理性、在长期寂寞中坚守认知——不仅靠智商,更跟前额叶对杏仁核的调控能力有关。研究表明,这部分受先天神经结构影响,但通过长期训练,比如养成认知习惯,后天仍有一定改善空间。
大模型的生成过程是基于概率预测的,倾向于挑高概率的“安全”选项,即中庸表达。眼高手低:“手”——生成能力——跟不上“眼”——评估能力。
「自优化」
一个模型生成初稿,另一个模型挑刺,最后再综合优化。
Deepseek R1幻觉率14.3%,Deepseek V3幻觉率3.9%。
让幻觉低的大模型对比原始素材和其他大模型生成的素材,查找失实不靠谱的地方。
提升质量:事后批评(先生成再修)、事前深度思考(先修再生成)。
先通过深度思考生成一个比较好的初稿,然后再进行批评优化。
羊行
羊行
2025.2.27
沙发
独步91
独步91
2025.2.27
小板凳坐好了!