第五期|为什么大模型会有偏见

第五期|为什么大模型会有偏见

56分钟 ·
播放数158
·
评论数0

欢迎来到《DH无界谈》,一档由中国人民大学数字人文研究院精心打造的轻学术交流播客。这里汇聚着一群充满活力的数字人文青年研究者,以青年立场和无界视角,一同探索数字人文的新宇宙。

🎙️本期播客成员

汪卓凡,中国人民大学数字人文研究院学生研究员,阿姆斯特丹大学媒介研究系文化数据与人工智能专业在读学生

周一诺,中国人民大学数字人文研究院学生研究员,中国人民大学信息资源管理学院数字人文专业在读学生

王子怡,中国人民大学数字人文研究院学生研究员,慕尼黑大学传媒体传播系新闻媒体全球化专业在读学生

郭都末,中国人民大学数字人文研究院学生研究员,毕业于英国皇家艺术学院绘画系

季子楦,中国人民大学数字人文研究院学生研究员,厦门大学新闻传播学院国际新闻专业在读学生

🔗本期内容

随着人工智能技术的快速发展,大型语言模型以其卓越的自然语言处理能力进入大众视野。尽管大语言模型出色的完成文本生成、内容翻译、数据解析等任务,但是输出结果中存在着不公平、不平等、不客观的内容不可避免的对部分群体产生歧视、偏见或其他负面影响。

大语言模型的偏见从哪里来?它是如何表现出来的?我们应该如何应对这样的偏见?

在本期节目中,我们将一起深入探讨大语言模型中的偏见问题,从技术、数据到日常生活,从更多元的角度来分析偏见是如何在人工智能的发展过程中被引入和加强的。

我们将讨论:

从现实世界的偏见谈起:为什么大模型会有偏见?
3:01 为什么我们需要通过AI来理解偏见
4:07 分类与知识建构的语境性

偏见的表现与数据:现实世界的数据如何影响模型的表现?
10:26 现实世界的偏见,如何反映在大模型之中
13:26 大模型的话语偏向性与政治代表性
16:12 大模型为什么可以学习到现实世界的偏见
20:58 样本量的差异如何导致大模型的偏见

大模型技术如何导致偏见:技术层面的偏见是如何产生的?
24:17 数据化的过程如何导致偏见
28:23 我们能把数据特征看作客观存在吗
29:32 大模型可以区分出偏见数据吗

大模型的日常使用与偏见:我们与大模型的交互如何影响信息的偏见?
32:07 我们与大模型的交互过程如何引入偏见
36:45 Prompt撰写过程引入偏见的风险

治理与监管:如何通过法律和伦理来监管人工智能的偏见?
39:25 为什么我们需要治理大模型的偏见
41:57 算法的训练循环如何巩固偏见
43:56 滥用算法的案例
47:08 现有AI治理的政策与法规
49:39 现有治理政策与法规的局限
52:11 总结

如果你觉得本期节目还不错的话,欢迎点赞、转发给你身边的朋友和社交媒体。有关《DH无界谈》播客和本期内容的想法,也欢迎在下方评论区、数字人文官方公众号私信留言。

💌关注我们

想要获取更多数字人文专业资讯和本期播客的文字内容,请关注“数字人文研究”微信公众号。