红色火箭|E104 2030年的世界:起初,人们以为只是失业虚实之间True Imagination

红色火箭|E104 2030年的世界:起初,人们以为只是失业

73分钟 ·
播放数22759
·
评论数114

AI正在改写经济学的底层代码——当复制思想的成本低于传授思想,当并发智能的效率碾压线性思考,人类劳动价值的根本逻辑正在被颠覆。当78KB的Skill包能蒸馏二十年工作经验,当单日300万条求职咨询涌向ChatGPT,我们不得不追问:在算法比人类更擅长「思考」的时代,人的价值究竟锚定何处?这一期节目,我们与大家一起展望AI时代的近未来。

本期节目由华夏基金冠名赞助播出,华夏基金旗下ETF总管理规模位列行业第一,旗下目前共有一百多只ETF,从宽基指数到热门赛道覆盖都非常全面,是毫无疑问的指数大厂。为了更好地服务关注指数投资的朋友们,华夏基金推出了【红色火箭】小程序,这是一个专门针对指数投资研究的数据分析和决策辅助工具,帮你更好地了解指数、学习指数投资、做好投资决策,通过微信直接搜索或点击进入红色火箭即可免费使用。相关小程序内容仅作为学习工具,不作为本节目的任何投资建议和决策的参考,请听友们理性使用,也祝愿大家都能有所收获。

本期主播:

活在当下、老饕

本期内容:

02:46 当AI开始自主发现规律

12:06 高学历职业受AI的冲击更大

16:24 人形机器人当前的局限性

20:54 AI大规模替代白领的开端

28:14 渐进式劳动力替代

35:25 AI为何与此前任何技术革命都不同

41:31 AI颠覆劳动力市场的底层逻辑

48:20 新岗位≠新就业

50:39 失业可能带来的连锁反应

55:30 转移支付和财政支出手段会有效吗

63:12 经济学可能“失效”

65:24 硅基智能的星际文明优势

68:30 人类的存在主义转向

相关往期内容:

E092 从蒸汽机到AI:技术如何“设计”了我们的社会

E087 该如何面对你,我的智力天花板

E083 运动员生涯竟是绝佳人生模型?

E057 All In缩写是AI:预训练停滞下的AI投资观察

E026 换血、赛博格和蓝图计划:永生真的有可能吗?

本期音乐:

Deepest Dive – Instrumental version --- Tiko Tiko

本期推荐书籍&研报:

《Tracking the eEffects of AI on the US Labor Market》 Matthew Luzzetti,Brett Ryan 等 著

《Firm Data on AI》 Ivan Yotzov,Maria Barrero 等 著

《Helping Job Seekers with ChatGPT》

《Equipping Workers with Insights about Compensation》

节目知识星球:虚实之间Plus

节目小红书:老饕、活在dang下

节目微博:虚实de老饕、虚实de活在当下

节目文稿发布:微信公众号 虚实之间True Imagination

展开Show Notes
虚实de老饕
虚实de老饕
13小时前
置顶
感谢华夏基金对本期节目的大力支持,为了更好地服务关注指数投资的朋友们,华夏基金推出了【红色火箭】小程序,这是一个专门针对指数投资研究的数据分析和决策辅助工具,帮你更好地了解指数、学习指数投资、做好投资决策,通过微信直接搜索或点击以下链接即可免费使用: https://wxaurl.cn/ULkJPHAzd5i
YAYXMG
YAYXMG
3天前
睡前听完了,讲的太好了,我更焦虑了
SwordBreaker:焦虑的话,把播客链接分享给ai,让他帮你分析主播的观点有哪些漏洞就好😏
Libra-1900:我不行了
8条回复
主播有些角度很好。我来从天天用agent的一线程序员角度说一些实际情况:
关于知识传递, 人和AI之间的知识传递成本并不是0, 这个成本也很高,而且有其瓶颈。 成本在于,从精确的语言描述一个复杂codebase的方方面面是十分困难的事情,写好的文档比写好的代码更难。大众可能认为程序员的核心竞争力在编程语言,实际程序员的竞争力在于编程思维, 用自然语言或编程语言难度差别不大。 瓶颈在于,AI的context window有上限, 过了context window表现就会变差。同时AI没有长期记忆, 你不断加skill, 它其实没有真的学会,只是当system prompt在每次请求时候调用。 skill越多context window占用就越严重, 调用逻辑就越复杂,这件事在复杂项目上有明显的scalability问题。
finra2007:在这个议题上,最乐观的往往是非专业或者非一线的人。原本不具备编程能力的普通人能在AI的帮助下,写一个虽然场景受限但自己能用得上的“软件”,兴奋之余很容易无限外推,轻视真实场景下企业应用的复杂性。讲一个暴论,只要AI无法高质量地维护AI自己写的代码,它就不可能在严肃的企业应用场景里取代程序员,尽管能在某些环节上提高他们的效率。考虑到软件行业的需求弹性,只要这个前提不变,长期看程序员的需求量不会减少,尽管未来一段时间,一定会有企业拿AI当或真或假的借口裁冗员。
阿浩吖:知识的传递本来就很难,人与人之间难,人与AI之间更难,那么让agent先解决人与人之间的知识的传递,agent做传递的中间载体,比如说经验,阅历
13条回复
wiley111
wiley111
2天前
君子不器,工业时代的劳动价值本身就是对生命的不尊重,不是AI取代了我们,而是我们解放了自己? 人类文明之后回归自然和生命本质,像一只鸟一只猴子自然的度过一生感受生命吧
胡椒煨瘦肉:将来可能会这样,但当下的一两代人要经历过渡时期的痛苦代价。
核动力吹风机:AI对社会的改变是对私有制度私有观念的动摇。劳动的价值回归人本身,劳动的异化结束。
3条回复
独步91
独步91
3天前
纺织工被替代时只能看历史书感受舆论变化,但前几年在互联网上讨论自动驾驶时,欢呼声可比担心司机失业大多了。
当纺织机和自动驾驶出现时,舆论在欢呼,为什么AI出现了,舆论却变了?
被替代的手工纺织工人和司机没有舆论话语权,而被AI替代的人有,且在互联网上舆论话语权更大。

纺织机技术和AI技术都差不多,纺织机想要替代工人就需要制造纺织机,而AI想要替代人,也是需要成本的。AI在互联网上的应用,是利用了互联网的边际效用特点,纺织机制造技术数据也是有边际效用的(纺织机技术研发成功后,生产一台纺织机和一万台只会增加制造纺织机的成本,研发成本不会增加)。
现在AI替代白领,就像是汽车生产线上机器手替代部分工人,这些岗位的都是简单重复,不需要创新等特性。AI想要像纺织机替代工人进行物质生产时,一样会遇到物质世界的规则限制。
当AI真的能进行物质生产,只需要少数人工作时,那时候我们活在物质生产丰富的时候,再来焦虑如何过好这一生。
现在不是焦虑被AI替代的时候,是尝试AI提升物质生产力的时候,毕竟屏幕里丰富的食物无法填饱你的肚子。
独步91:制造业打工人对AI在工业制造中应用的想象 在产品设计时需要使用的标准通用零件时(如定位销、螺丝等零件),可根据库存数据,在不影响功能的情况选择库存零件(如需要特定长度的M5螺丝,仓库没有符合要求的M5,但有同长度的M6,是否能设计修改为M6…),也可以根据标准通用零件供应商的数据,选择有现货的零件。 仓库数据和供应商数据与设计软件有效接通,AI在产品设计流程提示,有效提高库存零件使用率,也可减少采购时缺货调货时间,避免无货时要自行制造和采购超长螺丝后二次加工。 产品设计完成,各个零件数据确定后,AI会根据历史数据自动匹配工序,各个工序加工余量。如果需要特制加工刀具,会生成刀具数据并提醒,防止出现零件加工过程中停工等刀具。 如果加工需要夹具,会检索夹具库,没有适合的夹具时,会根据已有夹具库给出夹具优化方案(更换部分夹具配件)来满足零件加工需求,也可以给出新的夹具制造图。 车间加工时,AI会根据零件数据,加工设备的系统和刀具刀片生成适合的加工程序。如果是自动化流水线加工设备,AI还会通过摄像头和检测设备,自动修改程序自动补偿和刀片磨损更换提示。
paradoxhead:需求都被AI解决了。我就问你还要人做什么
5条回复
未来一定是垂直领域agent 的天下,可以有效避免幻觉和被投毒
所谓把一个员工蒸馏成78kb skill,这个说法太自媒体了。distillation说的是让小模型学大模型输出, 一个员工又不是大模型, 和谈蒸馏。 抛开用词, 公司拿什么数据去“蒸馏”呢, 难道员工被开除前还写一个详细文档给你么? 工作软件的聊天能成为很好的训练数据吗? 员工真的会在平时把自己知道的东西都写成文档吗? 所有答案都在实务中都是No
小涵67:不用较真,就是一个梗吧
HD795042t:实务中还真不是no,已经开始了,并不需要等到开除的时候。日常就已经开始要求员工把知识点技能点流程化可固定化,描述出来,一点点地凑出一套knowhow,一点都不难。而且看到Meta最近的新闻了吗,真的一点都不夸张。
我觉得播主的视角很好呀,他是从我们劳动者的角度来谈我们未来的危机和机遇。
AIToBox
AIToBox
2天前
根据节目的推演,未来可能会有两种比较乐观的发展路径:
1.发现了新大陆增长点,比如星际移民之类的。这样未来的生产力再怎么发展,还是远远不足的。这样人的脑力资源会再次产生比较优势,就是一辈子的知识被蒸馏成了70kb的skill,但是由于需求远远大于供给,运行skill的算力不足,作为替补,人脑还是有点儿压榨价值的。

2. 躺平的人越来越多,不婚不育成为主流,那么总人口大幅下降,劳动力供给大幅下降,最终到达一个人力重新有比较优势的点


最后,可能政府未来要征收ai税:大规模采用ai的产业,要加税,进行二次分配
所以孩子学习不好,让她去学门手艺好像也能接受了
AIToBox
AIToBox
2天前
另外,这期节目还有一点不太准确,就是ai的成本其实没有那么低。毕竟一个人脑的训练成本,大概是10w/h的能源消耗,而ai通用大模型的训练成本远远高于这个。ai的优势是推理成本低,运行一个78kb的skill未必成本有想象的那么低。当前的ai服务,大家觉得成本低,其实是vc烧钱补贴的。一旦烧不动了,大家可能发现,ai推理的成本,未必能做到无限下降。
AIToBox:所以根据任何新技术的发展曲线规律,他还得有个低潮期,那个低潮期可能会很长,会摧毁许多人对于ai的信心。等到那个低潮期来临的时候,再进行一期节目来推演和估值,估计会很有意思。
超跑颉:那是现在
1:08:25 嗯,碳基生物只是硅基生物的燃料而已
题目起的挺好。但是题不对文。没有场景化的描述未来的那一天。听了半小时。没耐心听下去。
终于讲AI了,都已经焦虑过了…我甚至担心人类担心灭亡了,下期能不能讲讲人的意义…
反而不用焦虑了,人只能改变自己能改变的事,拗不过大环境。在是工具时候好好使用,超越我时候再说哈哈
主播提到的ask mode和agent mode在个人用户端和api端使用比例的差异。其实原因很简单, 首先agent mode消耗token远多于ask mode,这个比较本身就不合理。其次,个人用户是自己花钱当然舍不得, 公司员工用公司的budget, 管他行不行的用agent mode跑一下也无妨, 当然agent用的就会更多。 这些都不说明agent就一定优于ask, 具体什么合适要看场景。
不知道 AI 给自己写史的时候愿不愿意称呼自己为“人工”智能
rzb82j
rzb82j
1 天前
只听到一半就要开始上班做牛马了 一整天都不好了
Turnovers
Turnovers
1 天前
49:24 ai是没法学习或者维修数据中心的,你不能自己维修自己,不然数据中心挂了,然后ai挂了,然后维修数据中心的ai也挂了
(无恶意)up主们是不是对运动员这个行业有什么美好幻想…职业竞技运动员的受伤率、精神压力和挫败感比一般人大得多得多…
安德鲁andrew
安德鲁andrew
12小时前
精简版:本期播客逻辑漏洞+论据缺陷汇总

一、核心逻辑漏洞

1. 单一因果谬误:把失业、经济下行、社会危机全部归因AI,忽略制度、分配、政策、人口等多重变量。
2. 线性极端推演:以短期局部AI替代现象,单向推导出2030大范围岗位消亡,无视技术革命历来的岗位重构规律。
3. 二元对立思维:非黑即白,排斥「人机协作」中间形态,只谈完全替代或纯人工。
4. 技术决定论:夸大技术自主性,默认AI无限制渗透社会,忽略人为调控与社会制衡。

二、概念偷换与定义模糊

1. 混淆显性标准化知识和职场隐性经验,夸大AI压缩行业阅历、处理非标复杂问题的能力。
2. 混淆AI单项专项能力与人类综合智慧,片面宣称硅基智能全面碾压人。
3. 价值窄化:将「打工谋生劳动」等同于人的全部存在价值,逻辑狭隘。

三、无论据、纯主观断言

1. 关键结论无数据、无调研、无量化支撑:高学历岗位更危险、新岗位补不上失业缺口、传统宏观政策失效等。
2. 选材刻意片面:只引用悲观案例与负面研报,屏蔽AI提效、新业态、产业升级等客观事实。
3. 多用比喻、体感、情绪论断,缺少经济学、社会学严谨推演。

四、脱离现实的关键盲区

1. 无视商业成本、法律追责、劳动法、公共安全、伦理底线,AI落地天然有强约束。
2. 忽视情感陪伴、人文社交、非标服务、高端创作等以人为核心、无法标准化的长期需求。
3. 回避社会分配改革、福利调整、产业规划等人为缓冲手段,刻意放大危机焦虑。

整体定性:偏向悲观观点输出,启发思考价值有限,论证松散、结论夸大,不能作为客观趋势判断依据。
虚实de活在当下
:
这ai水平不行,哈哈哈