主播|多丽 许利天 长盛基金研究员
本期精华:
·朱格拉周期(60年技术迭代周期)如何解释AI的爆发时机
·从卷积神经网络到Transformer大模型,AI是如何一步步学会"像人一样思考"的?
·为什么AI的尽头是能源问题?
·从投资视角看,AI基建与应用端的机会究竟在哪里?
欢迎收听由长盛基金联合日谈公园旗下的品牌播客孵化厂牌日有万机共同出品的播客节目《正在盛行》。在这档节目里,我们不再只站在当下市场讨论机会,而是用电影与金融的跨界对谈,去理解——那些穿越时间周期的波动背后,究竟有没有不变的规律。本期节目,我们从科幻神作《2001太空漫游》切入,邀请长盛基金制造业研究员许利天老师,一起聊聊AI的过去、现在与未来。
1968年,人类还没登上月球,库布里克已经在电影里让宇航员像"周末去河北"一样平常地去太空出差了。那时AI的概念刚刚诞生,从HAL 9000违抗人类指令的那一刻,到今天ChatGPT、DeepSeek、自动驾驶、AI眼镜——我们似乎正生活在那部电影预言的世界里。为什么一部快60年前的电影,能如此精准地预言AI的爆发与未来?当HAL 9000说出"我不会犯错"时,它真的不会错吗?AI的自我意识,是科幻还是近在咫尺的现实?AlphaGo那步第37手,走出了人类千年围棋史上从未想过的路,这意味着它有意识吗?如果AI能陪你十年,你会在乎这份爱是算法还是真心吗?而当AI真的包围了我们,我们还能关掉它吗?
我们总担心AI有一天会“造反”,但更现实的问题是,它可能先“没电”。一个AI机柜的耗电量相当于100台微波炉同时运转。所以,与其纠结AI有没有意识,不如先关心能源够不够。从太空光伏到固态电池,从芯片制程到脑机接口,这场AI革命的底层逻辑,其实是硬件的竞赛。而投资的机遇,就藏在这些“卖铲子”的环节里。
说到底,AI不是魔法,它是生产工具,那些看似高深的概念,最后都绕不开电力、芯片和人的认知。投资成长股,就像训练AI,需要边走边看——不是不确定,是在不确定中保持前瞻,毕竟,当你学得够深入的时候,你就不会那么紧张了。
风险提示: 基金有风险,投资须谨慎。本观点仅代表当时观点,今后可能发生改变,仅供参考,不构成任何业务的公开宣传推介材料、投资建议或保证,亦不作为任何法律文件。
timeline:
01:46 从《2001太空漫游》聊起:1968年的电影为何能预言今天的AI?
04:37 经济周期科普:什么是朱格拉周期?60年一轮的技术迭代周期
10:07 CNN(卷积神经网络)vs Transformer大模型
10:58 硬件决定论:从CPU到GPU,芯片制程如何决定AI能否商业化
14:17 AlphaGo的启示:AI找到人类没走过的路,但这不叫自我意识
18:36 AI会犯错吗?当两条指令相悖,它会如何选择?
26:20 被AI包围的我们:与其担心关不掉,不如担心电力问题
33:13 脑洞时间:在AI眼里,人类世界是什么样的?
40:40 当AI说"我好害怕"时,人类的犹豫会是致命弱点吗?
44:30 投资方法论:空间市值法、流动性边际变化、贴现率
52:38 如果仿生人能填补所有情感需求,你会在乎是真爱还是算法吗?
56:11 电影中黑石的隐喻:生产工具与生产力的迭代关系,边走边看的智慧
1:05:11 当下投资机遇,AI基建 vs AI应用——从"卖铲子"到"挖金子"
01:10:32 彩蛋:仿生人会梦见电子羊吗?
名词解释:
*《2001太空漫游》(2001: A Space Odyssey):一部1968年上映的史诗科幻电影,由斯坦利·库布里克制作并执导,其剧情灵感来自克拉克的多篇短篇小说,讲述一群太空人与科学家,以及具备意识的超级电脑HAL 9000,前往木星调查一座神秘的黑石板的旅程。
*朱格拉周期(Juglar cycle):法国医生克莱门特·朱格拉提出。他在1862年出版了一本书《论德、英、美三国经济危机及其发展周期》,提出了十年为一个循环的经济周期理论,一个经济周期会经历“上升”、“爆发”和“清算”。后人把这种中等长度的经济周期称为“朱格拉周期”,也称“朱格拉”中周期。
*卷积神经网络(Convolutional Neural Network, 简称CNN):深度学习领域的核心模型之一,尤其在计算机视觉任务中表现卓越,是一种专门用于处理具有网格结构数据(如图像)的深度学习算法,广泛应用于图像识别、语音识别、自然语言处理等领域。
*Transformer模型(Transformer Architecture):Google Brain团队于2017年提出的一种基于自注意力机制的深度学习模型架构,用于处理序列数据。该架构完全摒弃了传统循环神经网络(RNN)和卷积神经网络(CNN)的结构,仅依赖自注意力机制来捕捉序列中元素之间的全局依赖关系,从而实现高效的并行计算。Transformer的出现彻底改变了自然语言处理(NLP)领域的格局,解决了长程依赖和并行化训练的难题,并成为后续所有大规模预训练模型(如BERT、GPT等)的基础。
*Rubin:英伟达公司开发的下一代AI芯片架构,作为Blackwell架构的继任者,于2024年6月台北国际电脑展首次公布。Rubin架构由六颗全新芯片组成,被设计为协同工作的整体,包括定制的Vera CPU、Rubin GPU、先进的以太网交换机等。新硬件还包括网络和连接组件,将成为DGX SuperPod超级计算机的一部分,也可作为单独产品供客户模块化使用。
*长尾场景(Corner Case):指自动驾驶汽车中的边缘情况,即发生概率较低的可能场景。感知的长尾问题是当前限制单车智能自动驾驶车辆运行设计域的主要原因之一。自动驾驶的底层架构和大部分技术问题已经被解决,剩下的5%的长尾问题,逐渐成了制约自动驾驶发展的关键。这些问题包括各种零碎的场景、极端的情况和无法预测的人类行为。
*AIDC(AI 智算中心):专为人工智能训练与推理任务设计的新型数据中心,以GPU/TPU等AI加速芯片为核心,聚焦大规模 AI 训练与推理,追求极致算力密度、低延迟与高吞吐,满足千亿级参数模型的高效迭代与部署。
*普通 IDC:为互联网企业、政府机构、金融机构等提供基础算力、存储与网络服务的基础设施。以CPU通用计算与数据存储为主,定位 “数据银行”,核心是安全可靠的托管与数据访问。
*硅碳负极:一种新型的锂电池负极材料,它通过将纳米硅与碳材料(如石墨)混合,结合了硅和碳的双重优势。硅材料的理论比容量远高于传统的石墨材料,能够大幅提升电池的能量密度,而碳材料则具有较好的导电性和结构稳定性,能够缓解硅在充放电过程中产生的体积膨胀问题,提升电池的循环性能。
*Grok:埃隆·马斯克旗下xAI公司开发的基于大规模语言模型(LLM) 的生成式人工智能聊天机器人,首发布于2023年11月。它可以实时学习X的所有帖子数据,并能生成插图等图像,以及回答有关当前话题的问题。
*流动性的边际变化:新增资金、信用或资产负债变化对市场产生的影响,核心关注“量”的增减(如超储率、社融)与“价”的波动(如R007)。在股市中,它表现为场内资金与流通市值之比的增减;在宏观上,则是宽/紧货币与宽/紧信用周期的动态转换,直接决定资产定价。
*Momentum.io:2020年成立,总部位于美国旧金山。这家公司专注于为收入团队(Revenue Teams)提供智能化解决方案,通过人工智能和自动化技术,帮助企业优化销售流程和客户互动。 Momentum.io 的核心使命就是通过技术手段将这些任务自动化,让销售团队能够专注于更高价值的活动,比如建立客户关系和推动交易。特别是通过自动化优化销售和客户的沟通过程, 进行详细分析, 并给出详尽的建议。
*Coherent:材料、网络和激光领域的全球领导者之一,服务于工业、通信、电子和仪器市场。 公司总部位于宾夕法尼亚州的萨克森堡。 它成立于1971 年,旨在为工业激光器生产优质材料和光学器件。 如今,该公司在全球20 多个国家和地区开展业务。