🎙Vol.2|人类会不会是 AGI 发展的最大 Bug?

🎙Vol.2|人类会不会是 AGI 发展的最大 Bug?

37分钟 ·
播放数407
·
评论数6

AGI,人人都在讲,却没人说得清。

它是 OpenAI 的终极梦想,是马斯克的噩梦,是投资圈的下一张门票。

有人说它是人类智力的终极延申;有人说它只是技术公司讲给资本市场听的童话。你以为它还很远,其实它已经在你手机上开了个小口子。

这一期,我们三个人没有端出什么“结论”,但带着问题坐了下来,聊了聊这个看起来“天高云阔”的话题——它真的会来吗?来之后我们怎么办?它和我们之间的距离,是模型参数,还是人类本性?

我们讲了技术的演进,也讲了人类的焦虑;回顾了模型的迭代,也试着从创业者、投资人、普通人的角度去拆解它到底意味着什么。

我们不懂所有答案,但一起问问题,是通向未来的第一步。在这期节目里,我们不争论谁对谁错,只想一起把“听起来很远”的AGI,聊得离生活更近一点。

时间序:

00:23 AI近期发展

02:27 AGI的历史故事

05:49 AI和AGI的区别

09:26 AGI 究竟是什么?不同人和公司给的定义都是什么?

13:37 AGI和人类的区别在哪里?

18:02 我们离AGI还差哪一步?

29:02 AGI的终极理想场景

展开Show Notes
ZJF_sUhh
ZJF_sUhh
2025.6.12
俩个投资小伙伴,理念新格局大,语出惊人有内涵,未来可期💪💪💪
赵博石
赵博石
2025.5.28
主播能否把提到的名词列在评论区?不知道怎么拼写
Zenith_xy
:
AGI (Artificial General Intellegence 通用人工智能): 具备像人类一样广泛学习和解决各种问题的能力的人工智能 Agent (智能体): 能感知环境、做决策并执行动作以实现目标的自主系统 Foundation Model (基础模型/大语言模型): 在大量数据上预训练、可微调用于多种任务的大型AI模型(如ChatGPT) Terminator (终结者): 电影中毁灭人类的AI机器人,常被用作超级AI威胁的警示性比喻 Token (词元): AI处理文本时拆分出的基本单位 Natural Selection (自然选择): 进化论核心概念,指适应环境的个体更易生存繁衍 Emotion (情感): 人类的主观感受状态 Intelligence (智能): 学习、理解、推理、解决问题和适应环境的能力 Loss Function (损失函数): 衡量AI模型预测错误程度的数学函数,用于指导模型优化 Explainable AI (可解释性AI): 使AI决策过程和结果对人类可理解、可解释的方法和目标 Benchmark (基准): 用于统一衡量和比较不同AI系统或模型性能的标准测试或数据集 Universal Basic Income (UBI) (全民基本收入): 无条件定期向所有公民发放一笔固定金额现金的社会福利制度,常被讨论作为应对AI自动化导致大规模失业的潜在解决方案 Maslow's Hierarchy of Needs (马斯洛需求层次理论): 描述人类需求从基础生存到自我实现的五层金字塔模型
-Lemon9898
-Lemon9898
2025.5.24
为什么应用不算agi?
Claudiooo
:
我们的感觉是AGI是一种智能,工具或应用更多是辅助人类这个智能,而不是自己的一个智能。包括播客中提到的几个应用,他们也局限于某种场景,但真正的智慧感觉是一个有弹性,局限性更低的系统
EFI_uzj2
EFI_uzj2
2025.5.27
牛逼