谷歌:没人比我更懂 “不作恶”
2026 年 4 月 2 日,谷歌 DeepMind 发布了 Gemma 4 系列模型。模型有四个规格——E2B、E4B、26B MoE、31B Dense——覆盖了从树莓派到单卡 H100 的全硬件区间,31B 在 Arena 开源榜冲到第三,26B MoE 只激活 38 亿参数就打出了同级 Dense 模型的效果。 但这些数字都不是当天最热的议题。 让 Reddit r/LocalLLaMA 板块在发布后几小时内涌出数十个讨论帖的,是另外一件事:Gemma 4 全系采用 Apache 2.0 协议,彻底告别了前三代饱受诟病的“Gemma 自定义许可证”。 开发者们的反应很直白——“终于可以放心用了”。有人当即跑通了树莓派 5 的本地部署,有人在 6 小时内放出了 GGUF 量化版,还有人做了与 Qwen 3.5 的横向跑分。Hugging Face 官方博客的欢迎文章在一天内收获 223 个赞,评论区从 K12 教育到自动驾驶,各种应用场景已经开始讨论。 这一切热情,与其说是因为模型本身有多强,不如说是因为谷歌终于打开了那把锁。 那行“劝退”的许可证 要理解社区为什么这么激动,得先...