腾讯开源 Hunyuan-MT-7B 翻译模型
腾讯宣布开源在国际机器翻译比赛拿下30个第1名的翻译模型 Hunyuan-MT-7B,除了中文、英语、日语等常见语种,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种。
Hunyuan-MT-7B 总参数量仅7B,支持33个语种、5种民汉语言/方言互译,是一个能力全面的轻量级翻译模型。
同时开源的还有一个翻译集成模型 Hunyuan-MT-Chimera-7B (奇美拉),是业界首个翻译集成模型,它能够根据原文和多个翻译模型给出的不同内容,再生成一个更优的翻译结果,不仅原生支持Hunyuan-MT-7B,也支持接入 deepseek 等模型,对于一些有专业翻译需求的用户和场景,可以提供更加准确的回复。
公告称,在业界常用的翻译能力测评数据集 Flores200上,腾讯混元Hunyuan-MT-7B模型也有卓越的效果表现,明显领先于同尺寸模型,与超大尺寸模型效果对比也不逊色。
取得全面领先的成绩,离不开技术上的全面突破,针对翻译场景,腾讯混元提出了一个完整的翻译模型训练范式,覆盖从预训练、到CPT再到监督调参、翻译强化和集成强化全链条,使得模型的翻译效果达到业界最优。
Hunyuan-MT-7B的特点在于仅用少量的参数,就达到甚至超过了更大规模模型的效果,这也为模型的应用带来了众多优势。
首先是计算效率,7B模型的推理速度明显快于大型模型,在相同硬件条件下能够处理更多的翻译请求,并且,基于腾讯自研的AngelSlim大模型压缩工具对Hunyuan-MT-7B进行FP8量化压缩,推理性能进一步提升30%。
其次是部署友好性,Hunyuan-MT-7B能够在更多样化的硬件环境中部署,从高端服务器到边缘设备都能良好运行,并且模型的部署成本、运行成本和维护成本都相对更低,在保证翻译质量的前提下,为企业和开发者提供了更具吸引力的解决方案。
目前,腾讯混元翻译模型已经接入腾讯多个业务,包括腾讯会议、企业微信、QQ浏览器、翻译君翻译、腾讯海外客服翻译等,助力产品体验提升。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
DeepSeek 公开模型原理与训练方法说明
DeepSeek发布官方说明,披露了其大语言模型的训练原理、数据来源等信息。DeepSeek表示其线上服务基于深度神经网络大模型,采用“预训练—优化训练”两阶段流程。 在预训练阶段,模型通过大规模自监督学习获取通用语言能力;在优化训练阶段,则使用有监督微调(SFT)或强化学习(RL)对模型进行任务适配;最终部署的模型以自回归方式实时生成文本,而非简单的信息检索。 数据来源方面,预训练语料由互联网公开信息和第三方合作数据组成,不主动收集个人信息。优化训练阶段的数据由研究团队自建问答对,少量样本可能源自用户输入,但均经过了去标识化、加密及匿名化处理,并为用户提供了退出机制。 完整内容查看:https://cdn.deepseek.com/policies/zh-CN/model-algorithm-disclosure.html
-
下一篇
智谱上线 Claude Code 专属包月套餐,月费低至 20 元
智谱宣布,自 9 月 1 日起推出 Claude Code 专属「GLM Coding Plan」限时套餐,月费低至 20 元。 该套餐适用于智谱最新旗舰模型 GLM-4.5 及 GLM-4.5-Air。用户可通过扫描活动海报二维码,或者登录智谱开放平台bigmodel.cn,直接购买并获取详细使用攻略。 首期主推 Claude Code,未来将拓展到更多 Coding 工具。目前,GLM-4.5 已接入包括 Claude Code、Cline、Gemini CLI、Grok CLI、CodeGeeX、Kilo Code、Roo Code、Trae 在内的多款主流编程工具,全面支持日常开发流程。
相关文章
文章评论
共有0条评论来说两句吧...