#14 萨姆・奥尔特曼 S2:原来AI生成工具也能提升人类创造力|TED-2025/4前沿涌动 | The ForeSight

#14 萨姆・奥尔特曼 S2:原来AI生成工具也能提升人类创造力|TED-2025/4

8分钟 ·
播放数0
·
评论数0

� 本期播客简介

本期我们提炼了:Sam Altman 山姆・奥尔特曼在 TED 2025 大会主题演讲OpenAI CEO 奥尔特曼首次在顶级公开舞台,系统阐述他对 AI 时代的完整思考。内容覆盖AI 创作版权、OpenAI 重磅开源转向、ChatGPT 超级用户增长、终身记忆与主动 AI、内部超强模型、AI Agent、AGI 风险、全球监管、个人责任与未来文明展望。这是理解 OpenAI 下一步战略、AI 产业走向与人类未来的必读演讲。

�‍� 本期嘉宾

山姆・奥尔特曼(Sam Altman),OpenAI 首席执行官,全球人工智能领域最具影响力的决策者之一,主导 GPT-4、ChatGPT、Sora 等里程碑产品,深刻推动 AGI 技术研发与全球 AI 治理进程。

⏱️ 时间戳

00:00 开场:Sam Altman TED 2025 核心全景

00:25 AI 生成与创意版权:风格侵权、创作者分成、人类创作中心论

01:38 OpenAI 开源策略:将推出远超当前所有开源模型的强力开源版本

02:08 用户增长:ChatGPT 周活 5 亿,Memory 终身记忆,AI 从被动变主动

02:39 内部未公开模型:科学家效率爆发,AI 加速医药、物理、软件开发

03:23 AGI 澄清:暂无意识、无自我完善模型,但未来风险真实存在

04:17 AI Agent 时代:Operator 登场,自主行动的机遇与安全底线

04:57 监管新思路:放弃新设机构,转向严格模型测试与透明披露

05:23 个人责任:谁赋予他改变人类命运的权力?初心与争议回应

06:45 发展速度:AI 行业一直在 “放慢”,更相信大众集体价值而非精英决策

07:40 未来展望:物质极大丰富,个人能力爆炸,AI 成为人类文明的延伸

� 精彩内容

AI 与版权

支持人类创作中心,工具赋能普通人艺术与写作。

拒绝生成在世艺术家指定风格,未来支持创作者自愿加入 + 收入分成。

理解创作者焦虑,承认新经济模式仍需完善。

OpenAI 重磅开源

刚刚启动社区,将推出比当前所有开源模型都更强的开源大模型。

承认之前开源保守、行动较晚,现在坚定投入,投入远超同行。

清醒认知开源风险,但坚持让强大安全的 AI 普惠更多人。

产品与用户爆发

ChatGPT 每周 5 亿活跃用户,增长极快。

升级版 Memory(终身记忆):AI 持续了解你、全天感知、成为人的延伸。

未来 AI:从被动应答 → 主动帮助、推动人变得更好。

内部超强模型

内部模型已大幅提升科学家效率,改写科研发现节奏。

AI 加速疾病攻克、物理学突破、软件开发。

工程师可一下午完成过去两年工作量。

AGI 与风险坦诚

明确:目前没有有意识的模型,没有自我完善系统。

未来风险:生物恐怖、网络安全失控、虚假信息、模型自我改进。

坚持低风险先行部署、快速迭代安全框架。

AI Agent(真正变革点)

OpenAI 已推出 Operator,可自主订餐厅、完成任务。

核心安全承诺:不让 AI 乱花钱、删数据、清空账户。

用户可选择关闭自主能力。

监管与治理

观点更新:不再主张新设安全机构。

主张:严格模型安全测试 + 明确威胁清单 + 全球模型透明系统。

认为引发全社会关注的超强模型已不远。

个人责任与初心

回应争议:自己是普通人,批评合理,使命始终是安全造出 AGI 造福人类。

从开源转公司模式:是尊重资本与技术规律,而非放弃初心。

儿子出生后,更强烈地为下一代未来负责,绝不允许毁灭世界。

发展速度与价值观

AI 行业一直在放慢、暂停、延后高风险功能。

拒绝精英小圈子定规则,相信亿万用户互动得出集体价值。

未来 AI 可帮助人类做出更理性的集体决策。

未来文明展望

下一代成长在永远有强 AI的世界。

未来:物质极大丰富、变化极速、个人能力指数级提升。

希望未来人类回看今天,怜悯但感恩我们打下的基础。

� 播客内容说明

本播客节目通过提炼原主播的内容,力图保留原播客最真实的思考与情感。我们在后期采用了 AI 技术,虽已尽力优化,但个别之处或有生硬,恳请见谅。我们致力于为您捕捉全球最前沿的声音。我们通过 AI 也翻译了完整的原文播客,并尽力保留原有人声声线进行播客音频制作,有兴趣可以查看 “国外的同行们” 栏目,相同的节目 ID 对应相同的完整播客内容。如果您有想听的其他优秀外文播客,或有任何合作想法,欢迎通过微信与我们交流:FutureSign001。