第230集 为什么AI 必须做实验?田丰说

第230集 为什么AI 必须做实验?

3分钟 ·
播放数19
·
评论数0

所以科研理论我们接着去看

从物理学上来讲

就是从实验观察到唯象理论

再到了一种框架

唯象理论就是没有经过严谨论证的

这个总结

实验总结

比如说天象观测

当时大家觉得所有的这个地球是中心

而且呢所有的轨道都是圆的

后来发现不对

这玩意怎么都对不上

有些行星的轨迹

他们就套大圆套小圆

套一堆模型

这个模型就非常复杂

这个就不对了

后来开普勒说

那有没有可能是椭圆的

后来用椭圆的这个事

能解释开普勒三定律

但是开普勒这个人的数学不好

所以他这个后面

他找不到精确的理论框架

牛顿出来以后

牛顿数学非常好

发明了微积分

发明了万有引力

然后完美的去解释了开普勒的三定律

这个人工智能也一样

人工智能呢

现在有超大规模的集群计算集群

我们去做大模型的训练

有一个实验

为什么现在这个像李飞飞教授说

大模型都是在企业里面创新

高校里很少

因为高校没有卡

大部分算力都在企业啊

所以现在企业更像是一个

就中国政府说的

这个叫创新的主体是民企

民企啊但是

现在央国企的算力也开始建设起来了

有了这个实验环境

你才能去做这个大模型的训练和创新

然后就发现了一个唯象理论

叫做

上一个时代是

实际上是深度学习的时代

叫AlphaGo这个时代

所以我们发现了强化学习

等等这样的一些实验的理论

这个其实在心理学上叫行为主义

就是

这个下围棋

我这个我下的好

给这个AlphaGo一个奖赏

就是加分

下的不好给你减分

AlphaGo自己跟自己下

这个

AlphaGo就训练出来围棋的这个水平了

其实人也一样

管理学你想一想哎

员工做的好我给他一个奖励

员工做不好就给他扣分对吧

或者罚钱

其实这个都是一个

这个机械化的一种理论

然后那么现在大模型的这个理论

叫尺度定律

我们叫Scaling Law

它要不断的去变大啊

OpenAI就是压住说越大越好

就是就跟我们做菜一样

这个菜里面一共有三个元素

第一个叫算力

第二个叫数据

第三个叫模型的参数

这三个东西越大越好

所以我们说这口锅就是算力

你没有大集群

你根本这个菜都炒不出来

第二个就是你的数

训练数据集得足够大

你学的东西越多

越多元化

他这个仿真世界的

就是学习这个世界的

这个规模就会越好

第三个就是

人脑是有复杂度的

所以大模型也有复杂度

只不过现在人脑复杂度比大模型高

大概100倍

其实也不远了

为什么大家预测

2028年有可能实现通用人工智能

就因为到那个时候

大模型按照尺度定律来说

再膨胀两个数量级

就达到人脑的复杂度

那是不是我们AI就AGI就出现了

就强人工智能就出现了

但是这个都是实验总结的就一个趋势性的东西

那我们特别期待说

后面有这个理论框架出来

真正指导我们未来几十年的发展

你像量子力学狭义相对论指导100年了

现在这些红利还没有释放完

非常有价值