谷歌推出 TranslateGemma 翻译模型
谷歌发布了全新的 TranslateGemma 翻译模型系列。这一系列模型基于其最新的 Gemma3架构,提供了3种参数规模,分别为4B、12B 和27B,能够支持55种核心语言的翻译,同时还具备多模态图像翻译的能力。 根据谷歌的介绍,TranslateGemma 的推出不仅仅是一次技术的迭代,更是性能的飞跃。在严格的 WMT24++ 基准测试中,12B 版本的翻译质量超过了27B 基线模型,后者的参数量是其两倍。 此外,值得注意的是,体量最小的 4B 模型性能也已与12B 模型不相上下,尤其适合移动设备和边缘计算环境。 技术层面,TranslateGemma 的高效能得益于独特的 “两阶段微调” 工艺。首先,谷歌通过高质量合成数据与人工翻译数据进行监督微调,随后引入强化学习阶段,利用先进的奖励模型引导模型生成更加自然、贴合语境的译文。 为了适应不同的应用场景,谷歌将 TranslateGemma 细分为不同尺寸的模型。4B 模型针对手机和边缘设备进行了优化,12B 模型适合消费级笔记本电脑,而27B 模型则是追求极致翻译质量用户的理想选择,能够在高端 GPU 或云端 TPU 上运行。...
