AI的“重量”会重新打破世界的平衡吗?|硅谷AI观察二维吾码

AI的“重量”会重新打破世界的平衡吗?|硅谷AI观察

41分钟 ·
播放数771
·
评论数3

前段时间,我在腾讯研究院的两位好友袁晓辉和曹建峰受邀去参加了世界经济论坛的人工智能治理峰会。在这场全球性的会议上,来自不同国家的行业专家针对 AI 治理和伦理问题展开了讨论。

我们的硅谷AI观察系列节目也迎来了它的最终章。本期节目我们将邀请晓辉和建峰谈谈关于关于AI的可持续发展、AI模型的安全与治理,以及AI这一崭新技术的崛起对国际和各个国家会产生哪些影响?AI在各个垂直行业间的开发与应用、高校在AI开发方面起到的独特作用,最后落脚于AI对全球各区域之间发展平衡影响的问题上来。

| 本期嘉宾 & 主播 |

王健飞:二维吾码主播

袁晓辉:腾讯研究院资深专家

曹建峰:腾讯研究院高级研究员

内容编辑 & 音频制作:Z


※欢迎微信添加好友加入二维吾码听友群:erweiwuma


| 主要内容时间轴 |

02:31 它安全吗?它会造成区域发展不平衡吗?人们对AI的关注点都有哪些?

04:58 中美之外的各国AI发展现状,以及其看待这一轮AI发展的态度?

10:42  安全、透明、价值对齐,AI技术不应成为一个黑箱

14:09 从理论到现实,当AI进入我们的生活,它如何像“我们”一样思考问题?

18:31 AI治理的冲突:有效加速主义 VS 有效利他主义 ,究竟有何区别?

25:52  缺乏算力资本的高校的创新点和努力方向在何处?

29:49  AI向“好用”迈了一大步:根据大数据,辅助帮你完成决策的AI应用 

35:41 通用人工智能时代即将到来,我们要以什么心态面对?


| Shownotes |

有效加速主义:有效加速主义的支持者认为,科技进步是解决社会问题的关键,我们应该尽可能地推动这一进程。

有效利他主义:其代表了一种更谨慎的态度,对于科技进步和人工智能的发展,我们应该更加关注其可能带来的风险,并确保这些技术的发展与人类的价值观和意图保持一致。

价值对齐:如何让大模型的能力和行为跟人类的价值、真实意图和伦理原则相一致,确保人类与人工智能协作过程中的安全与信任。这个问题被称为“价值对齐”(value alignment,或AI alignment)。价值对齐是AI安全的一个核心议题。

展开Show Notes
大力强
大力强
2024.1.07
等一个AI帮忙理解
星稀月明
星稀月明
2023.12.26
Agent:cognizant
打卡