EP82 裸奔的AI:政策缺席、技术狂飙,我们正在走向怎样的未来?StellaxAmy·自定义

EP82 裸奔的AI:政策缺席、技术狂飙,我们正在走向怎样的未来?

106分钟 ·
播放数520
·
评论数15

当 2017年AlphaFold 用几分钟解出一个蛋白质结构、直接颠覆结构生物学既有节奏时,俊廷第一次深刻感受到:AI 不只是提高效率,它正在对一个个学科带来 真正的范式转移(paradigm shift)。从药物开发、医疗诊断,到神经科技与脑机接口,过去几十年累积的知识体系、监管逻辑与专业分工,正在被迫重新书写。

本期嘉宾俊廷,跨越医学、神经科学与政策三个世界:先在阳明医学院与 University of Missouri 完成临床医学训练、神经科学 PhD,再在第一线行医,后来前往 Duke 攻读应用伦理与科学政策硕士(Applied Ethics and Science Policy)。他的研究横跨医疗 AI、AI 评估、脑机接口与思想隐私,是能同时看见“技术能力”与“制度后果”的少数人之一。

在这一集里,我们讨论的不是“AI 能不能做到”,而是一个更紧迫的问题:当 AI 的能力远超现有制度可以处理的界线时,社会要如何在灾难发生前,更新我们的法律、监管与价值共识? 医疗诊断模型、自动化手术机器人、数字孪生、脑波解码……这些技术在实验室里都已经实现,但政策、责任归属、伦理与社会接受度却远远跟不上。

我们也谈到当今最大的 gap:技术人习惯追求最优解,而政策人则处理利益、博弈与权力结构。真正能推动负责任的 AI,不是单一领域能完成,而是跨学科合作,共同建立可行的中间地带。 

如果你正在感受 AI 带来的冲击,或想理解为什么“AI 时代的政策研究”会变得如此紧迫,这一集会帮助你看到更完整的格局——从技术能力,到制度迟滞,再到跨领域合作如何成为人类稳住方向盘的唯一机会。


本期Podcast提到的资源:
“Your Brain on ChatGPT” Paper - arxiv.org
Nita Farahany - nitafarahany.substack.com
AI Evals - datasciencexai.substack.com


00:00:00 Highlights
00:01:59 嘉宾俊廷介绍:医生+脑神经学PhD+应用伦理与科学政策硕士
00:05:37 2017年亲身经历AI冲击:AlphaFold颠覆结构生物学
00:13:55 AI 红利和断崖:人类依赖AI,直到有一天不再需要你
00:17:45 医生会不会被 AI 取代?
00:21:28 AI困境:工会vs.资本、责任划分、权力结构
00:33:43 AI政策研究与资本和Administration的博弈
00:40:27 AI产品带来的伦理挑战
00:48:32 美国的AI deregulation
00:54:53 AI语境中的永恒哲学话题
01:05:19 政策制定者和工程师如何有效合作
01:12:54 AI让你的大脑“偷懒”与创造力下降?
01:30:18 全民基本收入回来吗?资本主义和优绩主义还能走多远?
01:39:00 等待悲剧推动监管:Don't Look Up
01:43:02 AI政策研究资源分享:Nita Farahany 的 Substack & AI law and policy


「StellaxAmy‧自定义」播客

每期邀请一位朋友,讲述中文世界故事、华人故事。和我们一起倾听自定义人生。

如果你喜欢本节目或希望与我们合作,Stella和Amy现已开通Buy Me a Coffee会员支持:buymeacoffee.com

收听更多精彩内容 → linktr.ee

展开Show Notes
shakalaka_
shakalaka_
2025.12.24
作为收听时长及评论次数均为top5的听众,留下尊贵(bushi…的爪痕
四爷摸鱼:巧了 我也是Top5
StellaxAmy
:
尊贵的听众,感谢您!❤️
3条回复
-天空-
-天空-
2025.12.27
1:28:53 这又是一个错误的观点。

用rag甚至是agentic rag可以消除幻觉,是一个幼稚的看法。

分三个层面讲,一方面是你把十份资料和问题喂给大模型的时候,AI可能搞混,各种可能性的搞混。比如混淆不同用法的某个词语,混淆同一个词语在不同场景下的用法,把同一个信息源当中严肃和不那么严肃的东西当做同等。程度的事物来看待。

另一方面不存在完全可靠的资料或信息源。资料本身有适应的范围,比如一本医学书讲的某一个病状适用某某范围,但是不见得适用于这次情况,但是AI依然会按照某种字面上、形式上的相似度,来给出回答。


第三个层面是大语言模型的神经网络没有任何人知道他的工作机制是怎么样的,幻觉是原生的。只通过输入输出这样的一种测试方式,只能知道它的某种趋势或大概不会在哪些地方犯错,不像正则表达式那样存在一个比较可靠的判断。


另外cot、Re-act、A2a,也是同样的原理。只能应用在低容错率的环境下。
StellaxAmy
:
谢谢你的留言和clarification❤️ 俊廷的研究领域主要是政策,而非AI技术本身,所以有一些表述不太准确。这也是为什么我们在本期会聊到政策研究人员和工程师如何更好的协同合作。 我们在GenAI这个新技术中面临的挑战需要我们和不同领域的人合作。我们每个人都有自己的优势和局限性,只有拿着自己的puzzle piece,才能一起拼出完整的答案。
fafa111222
fafa111222
2025.12.23
沙发😁
-天空-
-天空-
2025.12.27
17:01 如果医生问AI来做诊断决策的话,即使是看rag搜索结果(却不看原文的话),那这个医生可以被吊销执照了。

AI幻觉是不可避免的。
-天空-
-天空-
2025.12.27
15:31 这个事情也分两说。

AI能够帮助程序员提升1.5到三倍的效率是有可能的。

但是一个完全不懂编程的小白直接用AI编程,它的效率会高于他学一个应用型的开发框架吗(ai辅助学习)?

不说那种一次性开发的工具,就说要用到数据库,用到前端UI,用到页面跳转的这类开发项目。直接用AI编程难道是更快的吗?其实不是的。

只要你用过AI编程开发项目,就会感受到随便一个报错。对话了20轮还没有修复,三四个小时就这样直接过去了。这要是去看底层代码,早就看完了。
-天空-
-天空-
2025.12.27
23:18 一个全自动的AI医生就不应该相信他的专业能力。

假如说你是把一系列的医学问题归纳成一串公式,然后有合格的实验证明,这一类情况也许还有探讨的价值。


但如果你把神经网络训练出来的模型,当做医生来诊断,这不就纯纯忽悠吗?

都不说现有的语言模型,只是把语言当做数据来进行训练出来的。

就算你用更高级的深度学习和更多维度的检测指标,当做训练样本,训练出来的模型都是不值得信赖的。因为医生做诊断是基于经验和背后的生物化学知识,而AI做诊断是基于数据的训练,内核是黑箱的。
-天空-
-天空-
2025.12.27
21:57 这又是一个偷换概念的地方。人类操控手术刀是基于机械论的,有很高的确定性和稳定性的。

但是AI的神经网络是没有常规理解上的稳定性的,也就是说不知道它能力的边界。所谓的evaluation,也不过是在一些测试集上测试它的性能。

你不知道神经网络的结构和它运作机制是怎么样的,那么就不应该信任这样的一个设备。


不管你说训练它的方法是基于概率和梯度下降啊怎么样的方法,但是它底层的机制是机械论的,是基于门电路的开关构成的。

那么你用一个机械设备在一个低容错率的环境下,而且不知道他的机制和原理,这种模式怎么可能会有一丁点的安全性。
-天空-
-天空-
2025.12.27
19:17 这是在瞎说吧。大语言模型这么多的幻觉,能用这个做手术?
-天空-
-天空-
2025.12.27
18:56 这里有个偷换概念的地方。AI识别CT的准确率是比较人只看CT的准确率,假如加上其他指标的判断,医生的识别能力是要高于AI的。
holadorable
holadorable
2025.12.25
40:53 哈哈哈哈哈哈 我也是想到走神了电一下
四夕_lfQh
四夕_lfQh
2025.12.24
来了!这个选题棒 请来的嘉宾也好!