Vol.16|数智时代的肉身“焦虑”与具身伦理:兼论人的用处东方法学

Vol.16|数智时代的肉身“焦虑”与具身伦理:兼论人的用处

65分钟 ·
播放数917
·
评论数16

在人类社会以及人类不断被技术化的进程中,技术被视为器官投影。当技术越来越拟人的时候,机器人一词的出现带出了机器中人的维度。然而,近年来“工具人”一词的悄然而至,将人的技术维度呈现。依据此逻辑,当埃隆·马斯克多次表达了对ChatGPT的“存在主义焦虑”时,关于人类肉身的存在主义焦虑也逐渐浮现。那么,大胆设想一下,机器意识的发展是否还需要人类肉身呢?

本期播客我们邀请了中国社会科学院大学的唐林垚副研究员和上海交通大学的闫宏秀教授,共同探讨数智时代的人机关系问题,《东方法学》编辑部实习生黄佳妮担任主持人。

唐林垚老师在《东方法学》2023年第3期上发表了一篇文章《具身伦理下ChatGPT的法律规制及中国路径》,文章主要阐述了既有规则的延伸适用和法律解释足以应对ChatGPT在内容生成、数据保护、劳动替代方面的现实性“近忧”,但无法解决因其使动性和嵌入性引发的人类在现实世界、虚拟世界的生存性“远虑”。界限日益模糊的人机关系重构须回归具身认知;身体在主客之间的可逆性、在自我与他者之间的穿梭性揭示出关怀投射、和谐共融、互促互进的伦理规范。在当下面向,可通过部门法联动、社会保障政策完善、反垄断规则细化处置技术失范;在本土面向,宜依托举国体制抹平数据飞轮效应、推进多方共治提升技术赋能、建立健全适应技术发展的教育体系;在未来面向,应以进展把控为目标完善通用人工智能立法,以内觉开显为导向促进人机共生演化,以熵增减缓为原则构建全新硅基伦理。

《东方法学》学术播客不止于期刊论文的探讨,我们坚持有态度的思考、有专业的论证、有正能量的传播,希望能激励更多的人都来关注、思考和参与相关前沿理论问题的探讨。技术时代,人类何为、何在与何去不仅仅是一个哲学命题与思想实验,更是一个关于人类未来的重要问题。特别是在人类深度智能化的背景下,技术不应是对肉身的碾压或者裹挟,人也不应成为是技术的载体。人类应以何种方式走向人机(技术)融合变成一个极具现实意义的问题,亟需加强关于技术的人文思考。

本期嘉宾

  • 唐林垚  中国社会科学院法学研究所副研究员、《商法界论集》副主编
  • 闫宏秀  上海交通大学数字化未来与价值研究中心主任、教授

主持人

  • 黄佳妮  《东方法学》编辑部实习生

时间轴

1:06  数智时代是新造的词吗?

3:16  OpenAI“宫斗事件”:首席科学家伊利亚和CEO奥特曼的矛盾

6:08  “宫斗事件”中的价值对齐是让机器符合人的道德吗?

7:17  技术层面的价值对齐:内部对齐和外部对齐

8:42  “人类让机器人偷苹果”案例在法律层面如何理解?

10:40  法律层面价值对齐的3H原则:Helpful(助益)、Harmless(无害)、Honest(诚实)

13:26  具身如何理解?如果具身不再有用,人还有什么用处?

19:15  四次工业革命中机器对人带来的影响是什么?

21:43  人类理性是如何被撼动的?人类地位的四次降格——哥白尼的“日心说”、达尔文的“进化论”、弗洛伊德“本我、自我、超我”的人格结构理论以及图灵的模拟

23:39  机器是否已经可以模仿人的感性思维?

28:29  生成式人工智能面对五类风险:(1)人工智能对人类社会交往的“釜底抽薪”式冲击;(2)因决策外包人类的控制权旁落;(3)现实世界的文化权力禅让;(4)虚拟空间的人类主权尽失;(5)身份焦虑和身体伦理困惑招致的社会角色失调、变异和错位。

37:54  将来会出现新的职业“提示工程师”:寻找关键词与人工智能沟通

41:59  身份焦虑:2023年12月14日,《自然》(Nature)首次将非人类ChatGPT列入了年度科学人物榜单。

49:00  对于这五个风险应该如何应对?

52:23  伦理学两个特点:前瞻性(预测)、系统性(内部达成共识)

54:03  卢曼提出的信任话题引发思考:是否可以信任为切入点让未来人工智能社会运作更有效?

57:03  现代人体力上的无效内卷:人可以降格但不能降品

62:16  道德物化在技术上可以实现吗?

相关阅读

唐林垚|具身伦理下ChatGPT的法律规制及中国路径

责任编辑

卢   玮  《东方法学》编辑部主任

制作团队

徐 天   施怡聆   郭 骏   黄佳妮   赵培伦   孙昭祺

关注我们

展开Show Notes
Teradata
Teradata
2024.1.11
03:32 “观念的不对齐”…… 中文里找不到更合适的表达了嘛?
Cicca:观念对齐是有专门提法的,也被称为“价值对齐”。观念对齐旨在让人工智能的系统目标“同人类价值观一致”。通过观念对齐,人工智能能够更符合设计者的利益和预期,更少产生意外的有害后果。
Teradata:但是主播这里讲的是两个人之间观念不对齐
郝允莱
郝允莱
2024.1.14
36:25 我的考研后遗症,就是看纸质书不停拿手放大🤣
人类本身不就是一种被创造出来的复杂人工智能吗
Cicca:人得开始各方面焦虑了哈哈哈。个人理解,从人文社科的角度,机器运作逻辑和人的行为逻辑还是不太一样的,像目前的人工智能客服不能很到位的理解我们人的需求。又像中文的博大精深,说话语调不同表达的很多意思也不同。从技术来看,机器算法是讲概率的,虽然人很多也能被机器模仿,但有一些创造能力不能被模仿,可能也是为了保护人的主体地位,需要发掘人的作用,毕竟人脆弱又渺小,但总归得有点用吧,不然太惨了也。不知道之后会发展成什么样
MacFee2576
MacFee2576
2024.1.11
57:45 播客很前沿也很应景。刚刚关注到工信部有关人形机器人的文件,有点意思噢
daisyluoo
daisyluoo
2024.2.17
主持人像在念稿子呐 不自然~
清柏溪
清柏溪
2024.2.03
本期内容对我还挺有用的!
互联网人
互联网人
2024.1.16
48:22 “ 不是我不透明,是你不懂我如何透明”一语道破!所谓人工智能里的black box不过是因为其原理太复杂而人类至今未能揭秘罢了🚬还美名其曰理论价值没有实用价值大
互联网人
互联网人
2024.1.16
当我们在焦虑自己工作是否会被机器取代时,我们的立场还是“机器也和我们一样,是为了人服务的”。而实际上未来我们可能需要考虑的是为机器服务,那时候还担心什么没有用处呢?机器会帮我们找到“最有效益”的用法。
郝允莱
郝允莱
2024.1.14
37:04 虚拟空间的人类主权丧失
有启发性!🎉
22:00 这里应该讲麦克卢汉
碳基总是比不上硅基的😂
Hertarug
Hertarug
2024.1.11
技术的好坏取决于使用他的人,技术向善除了人与人之间的博弈之外,更需要技术的所有开发方达成一个最低程度的规范(包括基础披露、基础道德、基础人权等方面)。