被大香蕉🍌(Nano banana)刷屏的一天
当 AI 开始批量复制人类的想象力,当算法开始定义什么是“美”,我们是否正在陷入一场审美的“模型坍塌”**?
2024 年,牛津大学等机构的研究人员在《Nature》杂志上发表了一篇震撼性的论文,题目叫作 《AI 模型也会坍塌:用生成的资料训练会让模型变笨》(Shumailov et al., 2024)。
研究者们发现了一个细思极恐的现象:如果一个 AI 模型不断地学习由 AI 生成的数据,它就会逐渐忘记现实世界中那些**“不那么常见”的细节。就像是一台复印机在不断复印另一张复印件,每一次迭代,画面的边缘就会模糊一点,色彩就会减少一点。
最终,模型会进入一种“退化状态”**。它吐出的东西极其完美,却极其单一。 这就好比如果你让 AI 画“森林”,第一代它可能会画出千奇百怪的树种;但到了第十代,它可能只会画出一种最像“树”的、最平均的绿条。多样性在效率中死去了。
正在驯化我们眼睛的坍塌,不仅仅发生在模型内部,更发生在我们的现实生活里。这就是社会学家们担忧的 “算法单一文化” (Algorithmic Monoculture)。
在这一集的最后,请你做一个小小的实验。 下次当你看到 AI 生成的那些完美到无懈可击的画面时,试着去找找那里面缺失的东西。去找找那些凌乱的线条,去找找那些不符合逻辑的色彩。 正如雷纳德·科恩那句著名的歌词:“万物皆有裂痕,那是光照进来的地方。”
📌 Shownotes
本期参考:
Shumailov, I., et al. (2024). AI models collapse when trained on recursively generated data. Nature.
Kleinberg, J., & Raghavan, M. (2021). Algorithmic Monoculture and Social Welfare.
核心概念:
模型坍塌 (Model Collapse): 递归训练导致 AI 丢失低概率特征的现象。
算法单一文化: 算法过滤导致的群体性审美同质化。
