AI来了,它好像无所不能。似乎我们只需要用自然语言和它交流,它就能写作、画画、做PPT,未来可能还会做视频,甚至编程。这给很多家长带来了一个错觉:培养孩子的基础能力,未来会变得越来越不重要。
真的是这样么?人工智能是“生产力工具”有位家长跟我说,“我一定要教会我家孩子如何使用ChatGPT”,我的反应真的就是“哑然失笑”。不用吧?孩子那么聪明,根本就用不着我们教。他们自己很快就会适应,很快就会用得比上一代好。作为家长,你压根就用不着操心这事儿。
真正应该操心的,是因为有了ChatGPT,孩子的基础能力,比如语言能力、写作能力降低了。更应该操心的,是你觉得这理所当然。这一次,ChatGPT 横空出世,引起轩然大波,除了技术因素之外,还有个关键,那就是“用户界面学习成本等于零”。
许多年前,我们刚拿到电脑的时候,无论是命令行界面还是图形界面,都是需要学习,学习曲线可能还挺陡峭。我们刚上网的时候,哪怕是调制解调器,或者局域网的搭建,都是需要一定专业知识的。哪怕是今天人人手中都有的智能手机,也有一定学习门槛,要不然怎么有那么多老人只能使用“老人机”呢。
可ChatGPT不一样。它完全没有学习门槛 ,你只要会说话就行。甚至你不会写字都行,只要你说话,就有同样是基于人工智能技术的软件帮你语音转文字。ChatGPT的输出结果虽然第一步是文字,同样也可以用软件文字转语音。
当然,眼前“如何跟ChatGPT说话”还需要若干小技巧。可是我估计不出一年半载,这些技巧都会被飞速成长的人工智能消灭。到时候无论你用什么样的方式跟它说话,它都能恰如其分地理解。现在所谓的“提问设计”,英文讲Prompt Engineering,只能是过渡时期里的所谓“技巧”。这就跟开车似的,刚开始的时候都是“手动挡”,早晚它们都会变成操作更简单、更傻瓜的“自动挡”,而后还可能很快就被彻底没有学习门槛的“自动驾驶”代替一样。
这一定会让孩子和家长造成一个错觉:基础能力,比如语文、英语,不重要了。我告诉你这大错特错。
在过去的一小段时间里,很多人通过各种各样的方法用上了ChatGPT,或者Microsoft版本的Bing Chat。然后呢?绝大多数人发现,自己并没有用它真正做什么。原因很简单。人工智能是“生产力工具”,它只对生产者有用。
绝大多数人本质上来看并不是生产者,于是,“多出一个更有效率的生产工具” ,对他们没有什么实际意义。这就好像兵器。无论多么厉害的剑,也只有剑客拿在手里才能发挥作用。不懂剑术的人,拿到再厉害的剑也没啥用。
如果你希望ChatGPT帮你写一篇文章,那么,你得首先拥有一些必要的基础技能,比如,思考能力、分析能力、想象能力、组织能力等等。这些都是基础。有了人工智能,当然效率提高了,查询资料、分析数据、校订勘误等等原本细琐且繁杂的任务自动化了,完成时间缩短了,甚至干脆不用操心了。可是,文章所要表达的思想和创意,还是得靠作者本身。
ChatGPT当然可以“一本正经地胡说八道”,噼里啪啦就能倒出几千字。可问题在于,它那样鼓捣出来的东西,不是你的思考,不是你的创造;再怎么与人类表达类似,也只不过是已有且普遍的内容的“重新编排”而已。
如果你希望用Stable Diffusion或者Mid-Journey创作图片甚至视频,也是一样的。你得首先拥有一些必要的基础技能。比如,了解足够多的艺术风格;又比如,拥有足够好的想象力和创造力。当然,最基础的是你需要良好的文字描述能力。很多人会发现,自己的语文基础到底有多差。再比如,你得有一些艺术功底,并且懂得使用绘图软件,否则的话,AI吐出来的东西,你只能全盘接受。
我认为,对生产者而言,人工智能的作用是“马太效应放大器”。马太效应(Matthew Effect)的名字来源于圣经中的一段经文:“凡有的,还要加给他,叫他有余;没有的,连他所有的,也要夺过来。”成功的人会越来越成功,而失败的人则会越来越失败的现象。
原本,人与人之间的创作能力差异就不小,比如,A10分,B9分,C6分。现在有了人工智能辅助,虽然每个人的工作效率都提高了,但强者愈强。到最后,C从6分提高到了60分,可B却从9分提高到了900分,然而A有可能提高到了100,000 分。
那原本没有创作力的人呢?那些0分的人,依然是零分,因为基数为零,无论乘以多少结果还是零。他们难道就没有变化吗?事实上不仅有,面临的还是很大变化:原本生产90%的垃圾,现在变成了99.9999%。
这就是为什么我说,人工智能时代里,“基础”变得更重要了。好。那作为家长,你应该更重视孩子哪些基础能力的培养呢?在我看来有三个:英语,对“事实”和“看法”的分辨力,以及对数据的理解能力。
先说英语。无论你愿不愿意、喜不喜欢、认同不认同,英语就是AI的母语。人工智能的训练数据绝大多数都是英文,与此同时,人类的绝大多数科学知识也都是用英文记录的。这是没办法的事情。
其实你自己用一用就知道了,面对ChatGPT,你用英语与它对话,和用中文与它对话,或者用韩文、日文与它对话,都有很大区别。当你使用英语与它对话的时候,它的输出质量最高。
AI当然有很强的翻译能力,任何语言都可以用AI将其翻译成任何另外一种语言。于是有一种看法很流行,认为“在人工智能时代,学外语已经没必要了”。真的吗?这又是一个经典案例,判断力不同会导致截然相反的决策。同样看到洪水猛兽,人们得到了截然相反的结论。比如我得到的结论是“现在,英语成了基础,基础变得更为重要,所以英语当然更重要了”。
那怎样学好英语呢?我有一个观点,把 “学” 字改成 “用” 字就好了。
在学校里天天都上英语课却在生活中坚决不用,这是许多年来一代又一代人在“学英语”上失败的重要理由。哪怕没机会“说”英语,也起码可以天天“读”英语啊。直接读原版书籍,一两本下来就能解决几乎一切问题。哪怕无人陪练的口语,只要自己天天早上朗读,一年下来,效果就会很明显。
第二个你更应该重视去培养的,是孩子分辨“事实”与“看法”的能力。
在我们身边,疏于分辨事实与看法的人比例极高。很多人更重视看法,对事实却缺乏兴趣。比如说,我们都知道知乎是国外Quora的拷贝猫(Copycat)。然而,知乎和Quora有一个巨大的区别。在Quora上,人们主要询问事实;但在知乎上,人们主要询问看法。
如果孩子受互联网影响,不能意识到“分辨事实与看法”的重要性与必要性,那么长大以后受到的影响是巨大的。说穿了,不重视事实的人当然不切实际,不切实际的人是没可能过上好日子的。
哪怕用个ChatGPT,也用不好。人工智能这东西,你若是让它帮你检索信息,提取事实、回答事实,它绝对是无敌神器。但若是你问它“看法”,那真是难为它了。人工智能能有什么看法呢?它没有思想,没有智慧,没有价值观,没有道德判断。它能做的其实只有一样东西,“一本正经地胡说八道”。大语言模型的核心任务,不过是通过概率计算把字词拼接起来,让输出看起来尽可能类似人类。
那怎样培养分辨“事实”和“看法”的能力呢?
国外有个大学教授,琢磨出来一个ChatGPT的 “最佳用法” : 让ChatGPT尽情胡说八道,然后,把输出结果发给学生,让他们挑错。这就是在锻炼学生对有关“事实”的“核实”能力。“核实事实”,看似只是一个“习惯”,其实就是一种培养能力的方法。不管什么事,不能“人家说什么就信什么”,得检查一下来源,看它是否可信,再判断是否符合事实,并且检查有没有遗漏。你按照这三步去训练孩子,肯定有用。
除了“事实”,剩下的全都是“看法” 。 “看法”这东西,往往建立在作者的“偏好”之上,于是,需要检查的,是那些“没说出来”或者“没写出来”的前提假设,再去判断它们是否有足够的根据支持,是否全面,是否故意夹带了“私货”。
好,第三个基础能力,是对数据的理解能力。如果再说穿了,就是“统计概率”。 因为“数据”是对众多“事实”的概括与总结。不能理解数据,就无法理解任何复杂事物。
统计概率这东西,你一定要在孩子小的时候就教给他,至少让他有这个意识。而且必须让他勤于实践。长大了再学,然后又没学好的话,很吃亏。不说别的,哪怕有一天去买股票,都会吃大亏,而且还根本不知道自己亏在哪里

