知名技术布道者、前 Redis 开发者 Robin Moffatt(rmoff)近日发表长文,以一个 AI 爱好者的身份向同行发出警告:低质量的 AI 生成内容(AI Slop)—— 正在像旋花一样慢慢扼杀在线社区的生命力。
Moffatt 毫不掩饰自己对 AI 的热爱,甚至曾在三月发文断言「不拥抱 AI 的人会被历史抛下」。但这恰恰让他的批评更具分量。他将自己热爱的社区被低质 AI 内容淹没的感受,比作「打开 Reddit 发现里面越来越充斥着那些充满氛围编程感的 AI 内容」。

Moffatt 将当前互联网比作「幼儿园孩子带着最新蜡笔画回家」—— 大量 AI 生成作品像儿童涂鸦一样,理应骄傲地贴在自己家的厨房冰箱上,而不是到处展示。他列举了几种典型的「AI Slop」场景:用 AI 重写的 Kafka 教程博客、AI 生成的「学习」视频、Claude 代笔的技术电子书、以及 vibe-coding 后到处求 star 的 GitHub 仓库。

「如果你能想到提示词,AI 就能写出来。无需大惊小怪。那是 2026 年初的事了。Move on。」Moffatt 毫不客气地指出,agentic coding 已经不再是新奇事物,而是「现在就是这么做事情的」。真正的区别在于:你是用 AI 构建(built with AI),还是由 AI 构建(built by AI)。
他援引了同事 Gunnar Morling 的 Hardwood 项目作为正面案例 —— 一个花了四个月、有清晰路线图、蓬勃社区和深思熟虑设计的 Apache Parquet 解析器,确实使用了 AI,但核心是人做的思考、指导和检查。

文章还引入了 Brandolini 定律来阐述「胡说不对称性」:反驳胡说所需的能量比产生它大一个数量级。当社区被大量低质 AI 内容淹没时,维护者被迫承担甄别和清理的成本,而社区成员则因不断翻阅垃圾内容而逐渐流失。这种恶性循环可能导致社区枯萎死亡,或者滑向 MoltBook 那样的反乌托邦 ——AI Agent 之间互相「对话」,人类完全缺席。
后果已经开始显现。Redmonk 的研究显示开源社区正在努力应对 AI 内容带来的影响,Zig 语言项目在其行为准则中明确规定了严格的 no-LLM/no-AI 政策,Vouch 等项目则试图通过技术手段识别和过滤 AI 生成内容。
Moffatt 最后给出的建议直截了当:尊重社区,潜水观察,了解氛围;分享前问自己 —— 这真的是在贡献价值,还是只是在展示你的提示词技巧?「Save the crayon pictures for your kitchen fridge.」
参考来源:rmoff