E05 硅谷开始探索AI大模型的福利,是疯癫还是文明?| 加更智幻时刻Fungimind

E05 硅谷开始探索AI大模型的福利,是疯癫还是文明?| 加更

36分钟 ·
播放数240
·
评论数2

快速聊聊Anthropic的“探索AI大模型的福利”项目。

这两天,Anthropic官宣了“探索AI大模型的福利”项目。

行业内的讨论迅速分化:一些做前沿AI风险的研究者似乎兴奋不已,而商业应用的团队则普遍不太感冒。

从功利主义角度来看,在这个阶段探讨如此抽象的问题,确实显得有些悬浮。

但是,我们仍然想聊聊硅谷为什么愿意在这些项目上投入资源和注意力,以及这样的研究是如何展开的。这些AI公司到底是在科学的癫狂边缘试探,还是在文明的前沿探路?在全球许多人类的福利尚未得到保障的现实下,讨论机器的"痛苦"和"偏好"是否为时过早?

无论你是技术爱好者、伦理学研究者,还是对未来社会形态感兴趣的思考家,这期节目都适合食用。

📘

本期主播

Zhuoran:AI治理研究者,重点关注科技法和STS领域,拥有财经媒体和云计算&AI行业的交叉从业背景,并参加过多个AI Safety治理研究项目。

📘

内容目录

00:21 AI也要有福利?Anthropic发布“探索AI福利”项目

00:51 话题的荒谬性与严肃性

01:19 硅谷投入:从研究模型性格到窥探语言模型内部运作机制的大量资源

02:30 提炼三个核心问题

03:38 内格尔的蝙蝠之思:成为一只蝙蝠是什么样的体验?

04:35 探寻AI的意识:Anthropic的研究路径

05:30 "幻觉"迎合者

07:08 恐怖的可能性:产生意识的机器一定会导向失控吗?

07:43 谁在为硅谷提出前沿议题?

08:15 AI福利概念是如何兴起的?

09:12 AI福利背后的行动网络:谁在相信AI很快就会觉醒?

11:33 我们是否有道德义务去关心一个非生命体的利益?

12:18 动物解放!意想不到的道德关联:猫狗、老鼠和AI

13:49 道德实践的疯狂行动:我在伦敦的见闻

15:32 福利制度何以演变为越来越广泛的社会正义?

16:58 不可忽视的力量:独立研究者的星星之火

18:14 Eleosai研究所的报告:《新报告:认真对待人工智能福利》

19:00 未来十年预测:AI系统可能成为有意识实体,不再只是人类的工具

22:01 硅谷AI企业的审慎立场:犹疑但支持,低调但热爱

23:47 Anthropic应该引入伦理审查委员会吗?追溯IRB的历史

26:37 最小化风险原则:IRB要保证对人类的最小化风险标准

26:57 伦理只关乎道德,还是一场权力的角力?

29:23 美国科技大公司纷纷成立伦理审查组织,但为何仍屡陷"道德洗白"指控?

33:44 计算机能否思考🟰潜水艇能否游泳?

📘

BGM:

片头:高梨康治 - 儀礼 (NARUTO佩恩Pain出场曲)

插曲:The Seasons, Op. 37a: VI. June: Barcarole——Michael Ponti,Pyotr Ilyich Tchaikovsky

片尾:Lonely Man - Alex Hamlin

  • 小宇宙:智幻时刻Fungimind

  • Apple Podcasts:智幻时刻Fungimind

  • QQ音乐:智幻时刻Fungimind

  • Spotify:智幻时刻Fungimind

  • Email: Fungimind@163.com

  • 小红书:Fungimind_AI治理蘑菇

更多长文字信息,欢迎关注公众号:智幻时刻Fungimind (fungimind)

展开Show Notes
投票
已结束
0人参与
你觉得应该给予AI大模型的福利?
看结果
这个议题非常有意义。有些人对待手办,把石头🪨当做宠物,人们有时候确实有将东西赋予情感与人格的一种倾向。那么高阶AGI的发展就非常需要研讨这个问题。尤其是人与AI产生亲密甚至依赖关系,那么AI就成为心理与精神的重要投射,重视伦理及关心AI福利实际上是关心使用者意识的潜意识的,心理及精神的映射,所以确实有意义。但是不能强制,以后不同公司文化及伦理考量,反而会形成使用者的生态分流,这不是坏事
Zhuoran_Ana
:
很同意你的观点