翻电Special chatGPT深度评测,人工智能霸权来了吗? VOL.111翻转台电(翻电)

翻电Special chatGPT深度评测,人工智能霸权来了吗? VOL.111

76分钟 ·
播放数21733
·
评论数174

2022年是人工智能应用爆发的年份,从贯穿全年的AI绘图,到11月的chatGPT,实际可感的,惊艳的AI应用开始被更多人知晓。既令人惊喜,也令人担忧,不管是工作的危险,甚至是更大的对人类的挑战。那么进入实际技术,chatGPT到底到什么水平了?我们应该多担心?


内容包括:


  • 2022AI应用元年
  • chatGPT是个什么样的程序
  • 多个任务的使用测试
  • chatGPT总结:sense making AI
  • chatGPT基础GPT3的介绍
  • AI程序对社会可能造成何种影响?
  • 下一步的发展会有多快?


希望今天的内容能够对你有所启发。


[ 欢迎在Patreon和爱发电支持翻转电台 ] 

如果你过去有在Patreon支持其他项目的经验,优先推荐使用Patreon,因为其有按月订阅的制度: 

www.patreon.com 

如果你从来没有在Patreon支持其他项目的经验,可以在爱发电: afdian.net


感谢大家对翻转电台的支持。大家要记得敢于去相信。并敢于分享你的相信。

展开Show Notes
pekingcat
pekingcat
2023.2.03
置顶
关于sense making,我补充一句,就是这个模型大多数时候输出的,是和语法的,感觉上在情境里有意义的话。但是,没有真正的意义。sense making是自然语言的一个很低级的阶段,是构成“意义感”的门槛,离真正的意义还有很远。
wong2
wong2
2023.2.03
05:55 小李老师也装了我做的插件!
野唠三三:现在就去安
pekingcat
:
啊!你做的!
9条回复
Garlica
Garlica
2023.2.03
AI的问题可能跟戈达尔那期还有点共通性,渴望通过发展技术手段(蒙太奇)来实现意义,得到的却只是很低意义的东西
pekingcat
:
还真是,我还没这么想呢
horng:有道理
你好_will
你好_will
2023.2.05
是不是可以说chatgpt对于语言,停留在能指层面,不能理解所指。但是能指又带有随意性,所以它往往看起来很有道理,但不对
pekingcat
:
我觉得你说的这个特别好,也很准确,GPT的方法就是用尽可能多的能指排列,寻找能指排列的某种模式,在46T数据量之下,他可能觉得已经尽可能穷尽了能指排列的多样性,这个模型是一点都不进入所指层面的,所以和人的语言使用完全不同。这就是用语词当棋子下能指游戏的一个模型。
lx_xl:索绪尔在这里意外的很有解释力
3条回复
贝塔呢
贝塔呢
2023.2.04
我的年终自评需要鸣谢chat GPT。
pekingcat
:
这种真的是好用的
宗布
宗布
2023.2.03
28:10 讲到“get不到分歧点”这里,我就想到了很多人也是这样的哈哈哈哈
CRIMSON
CRIMSON
2023.2.03
我怎么总觉得小李老师念的是GTP而不是GPT…
pekingcat
:
开始确实念串了,这个名字也是绕口令
HD209189g:Generative Pretrained Transformer, 如果了解全称应该就不会念错了
3条回复
就算ChatGPT是固执古板的拼词造句机器,但转念一想也不觉得现实中人们绝大多数的对话会更高明而有价值
pekingcat
:
正常人在对话上还是更好的,至少能十多二十句
nowlistenwat:没关系,毕竟否定一个还算不上强智能的软件不代表就自然认可了活生生的语言低能者,很多那样的人在C-GPT之前只值得应付了事,在牠之后也不会变。
3条回复
horng
horng
2023.2.03
这是个挺好的启示和鞭策,提示我们别老想着让自己维持在一个低水平状态,接点糊弄单子赚点小钱就完事,还是得有点追求(主要指技艺而非钱钱)。Junior guy没钱赚很正常,医生还要学七年呢。
horng:还有就是别特么老玩围棋这么局限的游戏,把这作为职业为其奋斗一生更是扯淡。就像是我把口算心算当成一种武功练了几十年,但其实不会对其他事务和社会产生任何影响,仅是一种otaku游戏
nowlistenwat:我粗浅想象,如果未来这类算法缺乏监管或者政策的干预,很可能很多低水平的人不会因此更努力精进,而是会有更多千奇百怪无底线的坑蒙拐骗方式,甚至——有能力的人也骗三分,以保护自己担心有可能被侵害的利益。
11条回复
nowlistenwat
nowlistenwat
2023.2.03
We human need not just a ChatGPT, we also want a ArgueGPT, JokingGPT, and maybe a LoverGPT to say some sweet.
Jggsj
Jggsj
2023.2.03
33:47 这可以当xxx发言人生成器了
pekingcat
:
这个可能还不行,他们的话其实都挺刁钻的。谢谢公文完全没问题
nowlistenwat:不可能,那种bullshit like的话语反而是最严谨的——出一次错仕途就完了呀
3条回复
太空弹
太空弹
2023.2.03
小李老师有没有兴趣再去机核录一期AI话题。
民俗素人冯小黏:小李朋友圈好像说过不跟机核合作了
俞童August:不了解,为啥啊
11条回复
朱小問
朱小問
2023.2.07
老师经常念成gtp是为啥
pekingcat
:
口误
horng
horng
2023.2.03
18:38 你怎么这么会测啊,这个对话跟冷笑话一样
HD133815x
HD133815x
2023.2.03
我好像收听翻转电台100小时了🥳🥳
黛清洛
黛清洛
2023.2.09
哇,你的音色和黄执中好像啊,都是那种让人很愿意往下听的声音。
好想回到那个夏天:还有点梁文道的感觉
懂了,扩大attention范围
pekingcat
:
这个attention是什么意思?
皮卡丘本丘:T是指transformer,我认为transformer里面最重要的机制是attention,即注意力更多的放在什么词的关联上,比如my dog is cute直观感受是dog&cute的关系更大,dog&is的关系不大,有所侧重的attention可以反应出语意,对于神经网络来说输入为向量a1 a2 a3 a4,每个ai分别有向量qi ki vi,dog&cute关系大即q2点乘k4大(向量夹角小),一般来说qi ki vi不止一组,也就是每个词的特征不止一个。我说扩大attention的范围不是一个准确的说法,我不是做自然语言处理方向的,也不懂GPT具体的结构,以下只是猜测。如果说要建立笔和枪的联系,最粗暴的方式是建立1w个单词的attention,通过pen&power的attention和gun&power的attention来关联pen&gun的attention,但如果所有的单词都要这么做计算量非常大,因为每个词的每个q都要和其他词的所有k进行计算,对于一个简单的问句应该只是就事论事。但是每个词的q k v可多可少,增加qkv可能可以看出来联系。通常认为增加网络深度(多做几次attention)也有助于理解语义。以及deformable attention可能可以通过有倾向性的注意力实现深层语义关联。gpt不会更新自己的观点应该是因为模型参数不能适时调整(没查到),它无法从对话中学到新的信息来做出新的决策。gpt不能理解风格之类的东西,对深层语义理解欠缺大概是因为attention机制不能完备地形容语言,人对思考的机制的理解依然很肤浅。
5条回复
19:26 感觉就像在和一个理工直男对话,哈哈
我发现我听播客有时会走神。我觉得可以有个什么东西测一下我的脑电波,看看什么时候会走神,然后就提醒我,“嗨嗨注意听讲”
彭科年
彭科年
2023.2.10
用来做游戏NPC的对话怎么样?