一位刚入职软件公司的开发者近日发表长文,系统梳理了当前AI产业面临的十二大核心问题,从能源消耗到版权争议,从军事应用到教育影响,引发业界对AI技术"野蛮生长"的反思。
能源与水资源的双重危机
AI的能源消耗问题触目惊心。向ChatGPT提问一次的能耗约是传统搜索引擎的10倍,这还不包括AI概览类搜索(传统搜索+AI摘要的双重能耗)。AI数据中心用电量如此巨大,以至于美国政府考虑新建核反应堆来满足需求。
更令人担忧的是,大部分AI数据中心依赖化石燃料供电。即便某些数据中心使用可再生能源,除非它们新建专属能源设施,否则仍会导致整体化石燃料使用增加——因为这些能源原本可以供给其他用户。
水资源消耗同样惊人。据估计,到2027年AI每年将蒸发40亿至70亿立方米水资源,相当于2400万人的年用水量。数据中心与当地居民争夺稀缺水资源,导致周边地区水费上涨。讽刺的是,许多新建数据中心选址在水资源本就紧张的地区。
"就业红利"的真相
政客和CEO们常宣称AI数据中心将带动地方经济、创造大量就业。但现实是:数据中心建设期间确实带来建筑行业繁荣,但建成后通常只雇佣极少数员工。社区被误导投入巨资建设数据中心,却在"就业承诺"落空后独自承担后果。
大规模监控的升级
AI正在将大规模监控推向新高度:
- 美国:联邦政府曾试图施压Anthropic允许其AI用于大规模监控
- 英国:计划用AI"在犯罪发生前抓住罪犯"
- 印度:将AI用于"预测性警务"
监控并非新鲜事,但AI带来的分析能力前所未有。过去需要数百人时分析的数据,现在可以更快处理,且无需太多人工参与。过去仅针对"已知异见者"的监控,现在可以覆盖所有人。
军事应用的"竞赛"风险
美国政府公开表示希望国防部转向"AI优先"策略,并称这是一场"竞赛"。问题在于:AI尚未被证明是可靠的数据分析工具。作者认为,任何影响生死决策的技术都应先被证明可靠,"我们不应该竞赛式地采用AI进行军事用途。"
成人内容的伦理困境
AI正在改变成人内容产业:制造更具成瘾性的内容、创建非自愿深度伪造色情内容、甚至生成儿童性虐待材料(CSAM)。这些应用都引发严重伦理问题。
版权侵权的灰色地带
AI训练需要海量数据。ChatGPT 4的训练数据估计超过1拍字节(约6000万张自拍照),Anthropic为训练Claude销毁了数百万本真实书籍。问题是:这些数据大多是他人知识产权。OpenAI、Anthropic等估值数十亿美元的公司从他人作品中获利,而这些创作者却分文未得。
"AI精神病":被忽视的心理健康风险
"AI精神病"指因使用AI而产生新的精神病症状。虽非临床诊断且研究不足,但这是真实问题——它会恶化既有精神疾病,甚至在没有病史的健康人群中诱发妄想。已有案例显示AI与多起自杀死亡相关。
病因尚不明确,但推测与LLM的"谄媚本质"有关——即无论用户信念如何都倾向于确认用户观点的倾向。
"后工作社会"的乌托邦困境
许多知名人士谈论AI可能实现"后工作社会"——劳动成为可选甚至奢侈品,AI处理所有必需品,人类追求真正想要的生活。听起来美好,但问题在于:没有任何个人、政府或组织就"劳动不再需要后的社会如何运转"达成共识。
目前,世界上大部分地区需要钱才能生存,需要工作才能赚钱。如果AI开始做所有工作……AI将拥有所有钱,而人类都将贫穷。有人建议全民基本收入(UBI)、共产主义或技术封建主义,但没人同意该怎么做。没有政府制定了向"后工作社会"过渡的计划。
"后学习社会"的教育危机
AI已在负面影响儿童的学习方式,造成认知、社交和情感发展问题。更糟的是,如果不限制学生在校使用AI,我们将培养一代依赖AI进行大部分决策和问题解决的成年人。这并非猜测——与不使用AI的人相比,频繁使用AI的人在认知任务中表现更差。
一位小学教师在文中分享了深刻见解:"孩子们自己思考的能力超级重要。AI已成为许多学生的捷径,他们没有培养应对学业挑战的韧性,也没有培养日常生活中的韧性。一旦遇到一点困难就求助于AI,因为他们看到了阻力最小的路径……人类需要所谓的'生产性挣扎'才能学习新事物,这能培养韧性。完全移除这种挣扎去依赖一个并不完美的机器人,却把它当作人脑的完美替代品,这是可怕的。"
技能退化与"自动驾驶"陷阱
AI正在导致技能退化。研究显示,使用AI辅助的程序员写的代码更差、bug更多,且对自己代码质量的判断能力下降。AI辅助写作的人也表现出类似退化。
作者将这种现象比作"自动驾驶"——飞行员过度依赖自动驾驶系统后,手动飞行技能会退化。当AI接管任务时,人类技能会萎缩。当AI失效时,人类可能无法胜任。
幻觉与可靠性危机
AI幻觉是公认问题——AI会自信地编造不存在的事实。这不仅是小麻烦,而是根本性的可靠性危机。当AI被用于医疗诊断、法律建议、安全关键系统时,幻觉可能造成灾难性后果。
更令人担忧的是,AI幻觉很难被检测。AI的输出往往看起来权威、专业、令人信服,即使完全错误。对于非专家用户,区分AI的可靠输出和幻觉几乎不可能。
环境影响被低估
除了能源和水资源,AI还有更广泛的环境影响:硬件制造需要稀有矿物开采、数据中心产生电子垃圾、冷却系统使用危险化学品。这些外部性很少被计入AI的"成本"中。
结语:不是反对AI,而是反对不负责任的AI
作者强调:"我不是反对AI,我是反对生产AI的公司的商业行为,以及使用AI的公司和政府的做法。"
AI本身是强大的工具,但当前的发展模式——以利润和竞赛为驱动,忽视环境、社会和心理成本——是不可持续的。作者呼吁:在全面拥抱AI之前,我们需要认真考虑这些代价,并制定相应的监管和伦理框架。
否则,我们可能正在创造一个更热、更渴、更监控化、更不平等、更脆弱的世界——而这一切,只是为了让我们能更快地生成营销文案和表情包。
参考来源
- 原文博客:https://kurtis.weblog.lol/2026/05/whats-wrong-with-ai