07. 人工智能的未来 —— 由海量数据构建的理想社会生活?双重意识DoubleConsciousness

07. 人工智能的未来 —— 由海量数据构建的理想社会生活?

52分钟 ·
播放数2939
·
评论数45

本期节目的嘉宾是我们的朋友Tom。Tom现在在一所北美大学读计算机科学博士,本科学习数学和哲学。他的研究领域是机器学习,也对科技哲学感兴趣。

 

人工智能和机器学习算法已经从方方面面深刻地影响着我们的生活。在这些算法快速发展的过程中,需要我们思考的问题也不断浮现:我们希望这些算法在何种程度参与、塑造我们的个人、社会、政治和经济生活?我们作为由算法开发的产品的使用者,也常常是训练、开发这些算法所需要的数据的生产者。但我们拥有我们所生产的(即使是个人隐私的)数据吗?是用户还是平台获得对这些数据的所有权和处置权?这些数据的所有权又将如何影响人工智能的发展,进而如何影响我们未来的社会生活?作为机器学习领域中的研究者,Tom有一些关于数据所有权的思考,和一些关于人工智能未来将如何参与社会生活的个人理想,希望通过这期节目和更多的不同经历、关注角度的朋友们讨论。从Tom的研究开始,我们在这期节目中和他聊到了隐私权、数据与社会正义的关系、推荐系统等话题。


本期嘉宾

Tom

 

内容提要+精彩预告

01:23 Tom的研究介绍

03:20 Tom的人工智能梦想

“希望人工智能能够超脱当前作为统计机器或者统计工具的作用,而是能深刻地参与整个社会的政治和经济生活中去”

“希望向大家展示人工智能能够如何影响政治理论和经济理论”

05:30 人工智能研发者的偏见是否影响了模型?

09:30 人工智能研发者以通用模型为目标进行研究

14:20 数据的隐私权如何界定?以社交媒体为例

“由有限数据而产生偏见”

“隐私权是需要得到社会和他人认可才能成立的权力”

“我们如何声明社交媒体中所产生的数据的所有权?”

“我们在朋友圈等公共领域所发布的信息应该属于数据生产者,还是属于平台?发布信息之后我们是否具有对于这些信息的永久垄断、处置权?”

17:10 隐私权和财产权的类比是否成立?

19:40 数据的公平性:数据来源于不公正,也会加剧不公正

25:35 隐私数据的出售和买卖

“在当前的社会共识中,隐私权是可以被定价和买卖的”

“数据隐私是否可以作为商品并且按照市场逻辑被差异化定价?”

27:15 社会共识存在吗?如何合理化数据买卖?自由市场的逻辑一定正确吗?

31:00 理想与现实的差距:如何用人工智能保证社会正义?

33:45 如果数据公有,对机器学习研究会有什么影响?以推荐系统为例,这将会如何影响我们的生活?

“我们作为社会中的一份子,应该开放于社会对于我们的影响”

“推荐系统会不会不公平地对于不同人群差异对待?”

“自由市场的观点:价格歧视和差异化推荐有助于提升社会整体的经济效益和总体福利”

39:00 拼多多的例子:我们的生活会变得更好吗?

47:00 Tom的理想:推荐系统能够保护人的多样性

“推荐系统不一定导致个人观点和消费习惯趋同”

“信息茧房并不是一种纯粹负面的存在”

50:07 总结

 

参考资料

新闻报道

潘颖欣,冯群星,张弛. (2020年11月22日). 《被售楼处人脸识别拍到,买房多花30万?有人被迫戴头盔看房》.南方都市报. 检索自

www.sohu.com

Karen Haoarchive. (December 4, 2020). “We read the paper that forced Timnit Gebru out of Google. Here’s what it says.” MIT Technology Review. Retrieved from

www.technologyreview.com


片头片尾音乐

《Sunrise at Seaside》by 王乾

 

封面图片

来自Samia的blog“BERT Explained: A Complete Guide with Theory and Tutorial”


-----------

双重意识是一档「让我们认识到那些我们以为此时此刻与我们生活需求没有关联的东西其实和我们紧密相关」的播客节目。你可以在各大社交平台和博客平台"双重意识"找到我们,关注我们并收听我们的节目,给我们留言、提供反馈意见。

展开Show Notes
Emet-Selch
Emet-Selch
2020.12.06
既然嘉宾决定使用美国定义下的「右派」,那我就假设这个讨论是在美国语境下的。嘉宾甩了一堆宽泛的法律词汇来讨论所谓的「隐私权」,但是完全不说具体实现上的法律历史细节里面的tension:比如第四修正案,比如Katz v. United States,比如the right to be let alone框架,比如一大堆一大堆的关于用户条例的讨论和学术研究。所以,我实在很难不把这嘉宾说的话当作口胡。
exmachina:非常赞同!那一段明显是外行角度。但是小白想请教一下关于现在美国法律届对于在社交媒体之类的公共场合下产生的数据的所有权是如何具体定义的呢?以及是否允许个人对于隐私的有偿出让呢?十分感谢!
exmachina:非常感谢!
5条回复
中文部首
中文部首
2020.12.07
睡前把我听气了睡不着了。一口一个“从自由市场的角度”,aka 能赚到钱,人也乐意,存在即合理... 简直就是资本主义联手科技能造成的最大噩梦
并无:+1
exmachina:但是在自由市场的角度之外,感觉嘉宾也提到了关于从社会干预,社会正义的角度,ai也可以其他到一些作用吧
3条回复
紫青zq
紫青zq
2020.12.08
34:47听到这里感觉这位先生目前完全是以智能技术的发展为导向,对人类社会的影响和与之的关系未免少些思考
Plato的理想国:26:51听起来嘉宾Tom完全是基于数据算法研究的便利性来思考隐私权的。可是本科不是哲学双学位么,感觉基于人与算法与公共治理的思考比较少。尤其是完全西方教育背景,但是思维方式我觉得蛮像国内教育的。
Emet-Selch
Emet-Selch
2020.12.06
另外我对嘉宾明显作为一个外行对法律概念的自信程度表示瞠目结舌。
象小豹
象小豹
2021.1.09
13:02 还只听到这里,不太能认同嘉宾“算法偏见源于数据,现在有偏见只是数据不够 ;deep learning因其通用和不可解释性所以没有偏见”的观点。第一点记得Yann Lecun也在Twitter上有过类似的表达。诚然,算法表现出的偏见很大程度上来源于训练数据,但这个问题收集更多数据并不能解决的——我们人类本身就有偏见。数据越多,理想的机器学习算法会越像人但不会越公平。至于不可解释性,只能说训练好一个神经网络,使用者不能理解它在做什么,便也不能根据这份理解去调整它。但是如果这个算法有偏见,我们也要等使用的时候才会察觉。在坏的情况下,一些通用算法做的决策有现实影响,它们带偏见决策的产物成了下一轮收集到的数据,而这些数据又被用来进一步训练它们,开始恶循环 。而被影响的人,及时发现了算法有问题,可以也投诉无门,毕竟都是算法做的决定,是个黑盒,没有负责人。而另一个方面,数据下毒(data poisoning)方面的研究显示,在训练一些“通用”的神经网络时,我们可以对训练数据做一些人类无法察觉的改动而大幅度改变算法行为,因为神经网络模型的不可解释性/黑盒性,我们很难察觉到这些手脚。
紫青zq
紫青zq
2020.12.08
我没听到未来,接收到的是更清晰的恐慌
不知道怎么回事,作为一名数学系大三的学生,我觉得嘉宾说得有理有据,我对推荐算法系统的未来也很看好。我觉得问题在于嘉宾和主持人对算法系统的理解存在偏差,以我浅薄的认知,嘉宾口中的算法就好比数学中的一个个定理和方程,是抽象的,主持人口中的算法是具体到商品推荐,音乐推荐等“二次加工后的算法系统”,所以嘉宾可以认为算法系统不会存在偏见和歧视(在数据足够理想的情况下),而主持人会认为算法系统可以被加入人为的某些观点和目的
空有一人:问题就在于,你不能把牵涉社会问题的人造系统想象成非人力因素的,这和描述性的、自洽性的科学系统很不一样。也正因如此,播主在对谈中不厌其烦地重申、强调这一点。这可能是你和嘉宾所陌生的思考路径。
Rheet:但是这一点很难由算法或技术方面层面去纠正,技术作为一个相对中性的工具,无法从根本上从事这种改造社会的工作,作为单纯的技术,也没有这个责任
4条回复
解犴
解犴
2021.7.17
两位主播真的应该对嘉宾持有这么强的攻击性吗……?
蛋黄酱MAYO
蛋黄酱MAYO
2020.12.06
41:53 拼多多的案例,算法推荐并不是低价的原因,供应链和运营机制才是
妗子
妗子
2020.12.15
隐私权作为商品....在合理合法的范围内 基于学术研究这样的目的 我还是可以接受的 只是现实中似乎很难如此
凌_K0IT
凌_K0IT
2022.3.26
主持人对算法太外行了…
Jesse7
Jesse7
2020.12.06
38:20 同意个人需求可以被外界引导,但是反对引导规则完全由“外界”制定
车厘子
车厘子
2020.12.06
42:33 我觉得好像这里关于拼多多这个例子的讨论,两方是站在不同的角度去讨论,一方过于理想化模型的角度,一方过于现实。。其实拼多多货不对版的质量问题,淘宝也有,ebay也有,但是他们还是有完善的人工监管干预措施,比如店铺评级,投诉渠道这些,拼多多有没有我就不晓得了。。嘉宾先提出的拼多多这个例子,是不是适合放在这个语境下讨论,要不要先讨论个美国的购物网站比较好。。
HD167851x
HD167851x
2021.2.08
如果都已隐私权或者道德视角来讨论人工智能,把专业领域的嘉宾拉入道德视角来讨论专业领域,对于我个人来说,听起来意义不大。应该少做价值评判,更多的让听者了解各领域,只就于其形式的进展,挑战和多样。
东城西就
东城西就
2020.12.22
这是疯了吗?
另外,用算法去实现一个更加有规律,有秩序的社会,就像去求解数学方程中全局最优解,我想这是大部分理工学生,至少是我,愿意去追求的
OstraMio
OstraMio
2022.12.06
哲学+技术背景是很期待的一期,但听完只感觉到有些恐慌。原来我们的技术人员真的认为自己在做一些“对人类有益”的事情。首先需要澄清技术并非中立,当它出现在人类社会就不可避免地受到人类的影响。其次,技术人员如果觉得自己很牛逼又不被别人理解,可以放下一些高贵的身段向大众说理的,而不是孤芳自赏。最后,节目里说出卖隐私以及信息茧房亚文化圈子,显示出嘉宾非常浅薄的认识,就像主持人所说的,如果我们有选择权我们会出卖隐私吗?如果亚文化圈子不与公众交流,那有怎么不需要担心未来受到行政力量的打压呢?人类之所以进步是因为信息交流与观点碰撞,而不是假装岁月静好。
Wise先生
Wise先生
2021.9.27
43:59 嘉宾拿用户协议来说确有有不妥。但更底层的逻辑是数据/信息总是归属于能够产生更大价值的那一方,而通常不属于弱势的另一方。这次议论许多争议都来源于此……
嘉賓的觀點很有意思👍
28:30两位主持没办过超市等会员卡么?