S1E5:当AI不再只是工具:我们真的准备好和它做“伙伴”了吗?AI Next

S1E5:当AI不再只是工具:我们真的准备好和它做“伙伴”了吗?

30分钟 ·
播放数91
·
评论数0

节目介绍:

《AI Next》是微软亚洲研究院推出的一档利用 AI 技术制作的播客,内容聚焦 AI 前沿技术、科研趋势与社会影响。我们希望让听众在体验微软亚洲研究院最新研究成果的同时,聆听技术专家对 AI 发展的解读和深度洞察,在理解与思考中迎接 AI 的未来。

作为一档由 AI 合成的播客栏目,《AI Next》播客音频和宣传视频背后包含微软亚洲研究院在合成 AI 领域的三项关键技术:VibeVoice 具备自然、富有表现力的语音合成能力,能够为最多4位说话者合成长达90分钟的高质量对话语音,为用户带来更灵动的声音互动感受。VASA 可将静态肖像与音频信号结合,合成情感逼真且拥有细腻面部表情的说话头像,为内容创作及辅助教育提供了全新的呈现方式。TRELLIS 则是一个 3D 物品生成模型,能依据文本提示或图片信息构建相应的 3D 效果,让复杂的概念设计可以在立体空间中被“看见”。目前,VASA 和 TRELLIS 技术可在微软的 Copilot 产品中体验,VibeVoice 也已在 Hugging Face 上开源。三项技术的加持将为内容创造者和听众带来 AI 技术演进的真实体验。

《AI Next》的第一季主要聚焦当今智能发展的核心议题,探索前沿趋势。 当 AI 深度参与我们的工作、学习和生活,人与技术的关系也在悄然发生着改变。在第五期《AI Next》中,我们邀请到微软亚洲研究院副院长谢幸博士,从日常使用 AI 的真实场景出发,与大家探讨 AI 在效率提升背后暴露出的偏见、安全与价值对齐等问题。围绕 Societal AI(社会责任人工智能) 这一研究方向,我们将进一步讨论当 AI 成为人类社会的“伙伴”时,应如何更好地融入人类社会?我们又该如何与 AI 共建未来?

嘉宾介绍:

谢幸博士

谢幸博士现任微软亚洲研究院副院长,其研究团队目前专注于数据挖掘、社会计算与负责任人工智能等领域,致力于推动前沿技术的发展与跨学科融合。

谢幸博士在国际学术界具有广泛影响,曾获得一系列重要奖项,包括:2019年 ACM SIGSPATIAL 十年影响力论文奖、中国计算机学会“青竹奖”,2020年 ACM SIGSPATIAL 十年影响力论文荣誉奖,2021年 ACM SIGKDD China 时间检验论文奖,2022年 ACM SIGKDD 时间检验论文奖,2023年 IEEE MDM 时间检验论文奖与中国计算机学会自然科学一等奖,并于同年入选 DeepTech“中国智能计算科技创新人物”。2025年,谢幸博士被授予“北京市劳动模范”荣誉称号。

谢幸博士是国际计算机学会会士(ACM Fellow)、电气电子工程师学会会士(IEEE Fellow)和中国计算机学会会士。他曾多次受邀在全球顶级学术会议上担任大会主题报告讲者,并长期担任多个全球学术期刊的编委。此外,他还曾担任多个全球顶级学术会议的程序委员会共同主席。

本期技术名词:

负责任的人工智能(Responsible AI):

负责任的人工智能关注的不是“AI 能不能做”,而是“AI 应不应该这样做”。它强调在设计和使用 AI 时,要尽量避免伤害、减少偏见、保护隐私,并确保 AI 的决策对人类是公平、可靠、可控的。

可解释性:

AI 的可解释性指的是当 AI 给出一个结果时,人类能不能理解它判断、运行的原因。可解释性研究的目标,就是让 AI 的决策过程更透明,让人类在关键场景下能看懂它,而不是盲目相信它。

社会责任人工智能(Societal AI):

社会责任人工智能是一个新兴的跨学科研究领域,聚焦于 AI 与全球社会系统和公共生活的复杂交互关系。它主要关注两个方面:一是,AI 对教育、就业和治理等领域带来的影响;二是,在 AI 能力不断演进的过程中,AI 系统所面临的新兴的内在挑战。它的目标是引导 AI 发展与社会系统相协调,能够更好地融入现实世界。

价值观罗盘(Value Compass):

价值观罗盘是微软亚洲研究院正在进行的一项研究。其研究的核心问题是,当 AI 被用在不同国家、不同文化、不同人群中时,它是不是能理解并尊重这些差异。研究员们希望构建一套评测方式,去衡量 AI 在价值观上的表现,让 AI 学会在不同语境下,做出更合适的判断。研究员们从交叉学科的角度切入,充分借鉴伦理学和社会学中的理论,从而解决 AI 对价值观的定义、评测和对齐问题。

内容提要:

05:29 AI 走进日常生活:效率提升背后的变化

07:39 AI 也会“出错”

09:03 什么是 社会责任人工智能?

13:28 AI 的“价值观”从何而来?

17:10 AI 出现偏见与风险的根源

18:06 从可解释性到可预测性,建立与AI间的信任

24:33 跨学科合作推动AI发展

27:25 理想的社会责任人工智能

互动方式:

公众号/ 小红书/ 知乎/ 微博:微软亚洲研究院

相关阅读:

声明:

《AI Next》是微软亚洲研究院推出的一档利用 AI 技术制作的播客,旨在探索合成生成式技术在内容制作和传播中的新形式与可能性。节目中的语音均非真人录制,而是由研究技术原型合成。其中,嘉宾语音由 VibeVoice 技术基于既定文字内容以及嘉宾声音样本合成,宣传视频中的嘉宾人物头像由 VASA 技术基于音频内容以及卡通风格合成和渲染。

作为一项探索性播客节目,《AI Next》中涉及的相关技术仍处于研究阶段,生成内容的表现可能受多种输入因素的影响。节目制作及发布遵循人工智能、数据安全与隐私保护相关的法律法规。节目中所使用的语音、文字与图像均获得嘉宾授权,仅用于科研与科普展示。微软亚洲研究院将持续对相关技术进行优化,提升节目的收听体验。

随着人工智能技术的快速发展,确保相关技术能被人们信赖是一个亟需解决的问题。微软主动采取了一系列措施来预判和降低人工智能技术所带来的风险。微软致力于依照以人为本的伦理原则推动人工智能的发展,早在2018年就发布了“公平、包容、可靠与安全、透明、隐私与保障、负责”六个负责任的人工智能原则(Responsible AI Principles),随后又发布了负责任的人工智能标准(Responsible AI Standards)将各项原则实施落地,并设置了治理架构确保各团队把各项原则和标准落实到日常工作中。微软也持续与全球的研究人员和学术机构合作,不断推进负责任的人工智能的实践和技术。

所有使用或转载本节目的个人与机构,在引用与传播时需明确标注相关内容“由AI技术合成”或者不得移除已有的标识,并避免任何可能引发误导或侵犯他人权益的使用方式。若您发现本节目内容或相关技术被非法使用,请通过微软安全响应中心(Microsoft Security Response Center)网站进行举报:msrc.microsoft.com