神经科学家兼哲学家 Sam Harris: AI可能是终结的开始!

神经科学家兼哲学家 Sam Harris: AI可能是终结的开始!

24分钟 ·
播放数19
·
评论数0

神经科学家兼哲学家 Sam Harris 讨论了人工智能的影响,特别是其在制造虚假信息方面的潜在危险,以及创建与人类利益不一致的超级智能 AI 的可能性。他认为,AI 技术的快速发展使得阻止其广泛应用变得不可能,即使它可能构成严重威胁。Harris 表达了对由强大 AI 引发的虚假信息传播的短期危险的担忧,并强调需要通过某种形式的数字信息验证来恢复对在线信息源的信任。

他在结尾时探讨了 AI 对就业市场的冲击,并主张通过普遍基本收入(UBI)等解决方案来应对这一挑战。此外,他建议人们重新聚焦于艺术、哲学和有意义的人际关系等人类价值,这些领域在未来 AI 承担许多当前由人类完成的任务时可能变得更加重要。

最重要的观点与事实:

1. 狭义 AI 的短期风险:

  • 虚假信息与深度伪造:
    Harris 认为,在未来 1-3 年内,AI 将能够生成高度逼真的深度伪造内容及伪造的文章和科学论文,使真相与虚假难以辨别。
“我们将面临一种情况,网上大部分信息可能都是假的。”
“给我一部45分钟的纪录片,宣称大屠杀从未发生,并配以档案影像……再给我1万个这样的纪录片。”
  • 社会不稳定:
    这种虚假信息的泛滥将破坏信任,加剧政治分歧,并使互联网和民主选举变得不可靠。
“我们可能需要承认互联网的信任已经破产了。”
“我们能在18个月后举行一场被认为有效的总统选举吗……我不确定。”
  • 解决方案:
    Harris 建议需要某种形式的信息审核和验证机制,可能依赖可信的机构来验证信息来源。
“信息来源的可追溯性将变得至关重要。”
“我们正步入一个不再信任照片的时代,除非它来自 Getty Images 这样的平台。”

2. 广义人工智能(AGI)的长期风险:

  • 智能爆炸:
    Harris 认为,随着 AI 技术的持续进步,具备或超越人类认知能力的 AGI 的出现是不可避免的,因为智能的价值具有普遍性。
“智能是与载体无关的……我们已经拥有智能机器。”
“最终我们将面对比我们更聪明的存在。”
  • 对齐问题:
    关键在于 AGI 是否能与人类的价值观和目标保持一致,否则其超强的智能可能对人类构成生存威胁。
“在这种关系中,愚蠢的一方天生是危险的。”
“智能差距本质上就是危险的。”
  • 类比:
    Harris 以人类与狗的关系类比 AGI:如果狗创造了人类,它们无法理解我们的复杂目标,并将完全受我们支配。同样,人类可能无法理解超级智能 AI 的动机和行为。
“想象一下,如果狗发明了我们这种超级智能 AI……”
“如果我们不得不在狗的生命和孩子的生命之间做出选择……我们会毫不犹豫地牺牲所有的狗。”
  • “悬置的怀疑”:
    即便是支持 AI 发展的 Elon Musk 也承认,他对于 AGI 的潜在影响抱有“悬置的怀疑”,这表明问题的严重性。
“他说他处于一种悬置的怀疑状态,因为如果他真的过多思考这些问题,就会觉得一切都毫无意义。”

3. 潜在解决方案与社会转变:

  • 暂停 AI 开发:
    Harris 认为,在解决对齐问题之前,暂停 AI 开发是明智之举。
“我肯定会暂停它。”
  • 普遍基本收入(UBI):
    由于 AI 可能导致大规模工作岗位流失,Harris 建议 UBI 作为应对劳动替代的解决方案。
“我们需要基于这种伦理观念来建立新的经济体系,即普遍基本收入。”
  • 价值观转变:
    人类需要重新定义工作的价值,并在传统就业之外找到意义和目标。
“我们会找到一种新的方式,让我们在海滩上也能感到快乐。”
  • 人文学科的回归:
    Harris 认为,艺术、哲学和人际关系等难以被自动化的领域将变得更加重要。
“这将促使我们将人文学科作为核心重新重视。”

4. 个人轶事与见解:

  • 退出 Twitter 的解脱:
    Harris 分享了他退出 Twitter 后的轻松体验,这使他摆脱了网络负面信息和混乱的困扰。
“删除 Twitter 账号后,我的生活发生了巨大变化。”
  • 诚实的重要性:
    Harris 强调,在生活各方面承诺诚实能带来深远影响,有助于强化人际关系并提升自我认知。
“我做过的最有影响力的改变之一就是决定绝不撒谎。”

总体基调:

Harris 的讨论充满忧虑与紧迫感,但他也对积极解决方案抱有希望,认为只要人类明智且积极应对,未来仍有希望。

关键结论:

AI 的发展既带来了前所未有的机遇,也构成了生存风险。进行开放而诚实的讨论对于减轻负面影响,并确保人类的长期福祉至关重要。