Banana太完美,但那是算法定义的美

Banana太完美,但那是算法定义的美

4分钟 ·
播放数16
·
评论数2

被大香蕉🍌(Nano banana)刷屏的一天

当 AI 开始批量复制人类的想象力,当算法开始定义什么是“美”,我们是否正在陷入一场审美的“模型坍塌”**?

2024 年,牛津大学等机构的研究人员在《Nature》杂志上发表了一篇震撼性的论文,题目叫作 《AI 模型也会坍塌:用生成的资料训练会让模型变笨》(Shumailov et al., 2024)。

研究者们发现了一个细思极恐的现象:如果一个 AI 模型不断地学习由 AI 生成的数据,它就会逐渐忘记现实世界中那些**“不那么常见”的细节。就像是一台复印机在不断复印另一张复印件,每一次迭代,画面的边缘就会模糊一点,色彩就会减少一点。

最终,模型会进入一种“退化状态”**。它吐出的东西极其完美,却极其单一。 这就好比如果你让 AI 画“森林”,第一代它可能会画出千奇百怪的树种;但到了第十代,它可能只会画出一种最像“树”的、最平均的绿条。多样性在效率中死去了。

正在驯化我们眼睛的坍塌,不仅仅发生在模型内部,更发生在我们的现实生活里。这就是社会学家们担忧的 “算法单一文化” (Algorithmic Monoculture)。

在这一集的最后,请你做一个小小的实验。 下次当你看到 AI 生成的那些完美到无懈可击的画面时,试着去找找那里面缺失的东西。去找找那些凌乱的线条,去找找那些不符合逻辑的色彩。 正如雷纳德·科恩那句著名的歌词:“万物皆有裂痕,那是光照进来的地方。”

📌 Shownotes

本期参考:

Shumailov, I., et al. (2024). AI models collapse when trained on recursively generated data. Nature.

Kleinberg, J., & Raghavan, M. (2021). Algorithmic Monoculture and Social Welfare.

核心概念:

模型坍塌 (Model Collapse): 递归训练导致 AI 丢失低概率特征的现象。

算法单一文化: 算法过滤导致的群体性审美同质化。

展开Show Notes
随手的草稿 特别的笔触 珍贵的独特性!
知道AI
知道AI
2026.2.28
做自己就好啦🍅🍓🍉