首页 文章 精选 留言 我的
优秀的个人博客,低调大师

微信关注我们

原文链接:https://www.oschina.net/news/397037

转载内容版权归作者及来源网站所有!

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

首次!国产芯片全程训练,GLM-Image 登顶 Hugging Face Trending

首个在国产芯片上全程训练的SOTA多模态模型GLM-Image,开源不到24小时即登顶全球知名AI开源社区Hugging Face Trending榜第一。模型SOTA性能、创新架构和训练过程引发海外科技圈热议。 这也是首次完全依托国产芯片训练的国产模型在国际舞台上取得榜首身位,标志国产AI模型的端到端自主研发能力在国际竞争中取得突破。 GLM-Image项目的最终目标就是全流程创新,是GLM团队面向以Nano Banana Pro为代表的新一代「认知型生成」技术范式的一次重要探索。 从架构上看,不同于开源常用的LDM方案,GLM-Image采用了创新的「自回归+扩散解码器」混合架构,并在基本对齐主流方案的基础上验证了新架构在知识密集型场景下生成的优越性。 通用pipeline 解码器结构示意图 从训练基础上看,GLM-Image实现了基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架的全流程训练及推理适配,实际训练性能足以达到相应计算设备的汇报性能上限,验证了在国产算力上训练出SOTA模型的可行性。 从性能表现上看,GLM-Image在CVTG-2K(复杂视觉文...

谷歌推出 TranslateGemma 翻译模型

谷歌发布了全新的 TranslateGemma 翻译模型系列。这一系列模型基于其最新的 Gemma3架构,提供了3种参数规模,分别为4B、12B 和27B,能够支持55种核心语言的翻译,同时还具备多模态图像翻译的能力。 根据谷歌的介绍,TranslateGemma 的推出不仅仅是一次技术的迭代,更是性能的飞跃。在严格的 WMT24++ 基准测试中,12B 版本的翻译质量超过了27B 基线模型,后者的参数量是其两倍。 此外,值得注意的是,体量最小的 4B 模型性能也已与12B 模型不相上下,尤其适合移动设备和边缘计算环境。 技术层面,TranslateGemma 的高效能得益于独特的 “两阶段微调” 工艺。首先,谷歌通过高质量合成数据与人工翻译数据进行监督微调,随后引入强化学习阶段,利用先进的奖励模型引导模型生成更加自然、贴合语境的译文。 为了适应不同的应用场景,谷歌将 TranslateGemma 细分为不同尺寸的模型。4B 模型针对手机和边缘设备进行了优化,12B 模型适合消费级笔记本电脑,而27B 模型则是追求极致翻译质量用户的理想选择,能够在高端 GPU 或云端 TPU 上运行。...

相关文章

发表评论

资源下载

更多资源
Mario

Mario

马里奥是站在游戏界顶峰的超人气多面角色。马里奥靠吃蘑菇成长,特征是大鼻子、头戴帽子、身穿背带裤,还留着胡子。与他的双胞胎兄弟路易基一起,长年担任任天堂的招牌角色。

腾讯云软件源

腾讯云软件源

为解决软件依赖安装时官方源访问速度慢的问题,腾讯云为一些软件搭建了缓存服务。您可以通过使用腾讯云软件源站来提升依赖包的安装速度。为了方便用户自由搭建服务架构,目前腾讯云软件源站支持公网访问和内网访问。

Nacos

Nacos

Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service 的首字母简称,一个易于构建 AI Agent 应用的动态服务发现、配置管理和AI智能体管理平台。Nacos 致力于帮助您发现、配置和管理微服务及AI智能体应用。Nacos 提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据、流量管理。Nacos 帮助您更敏捷和容易地构建、交付和管理微服务平台。

Rocky Linux

Rocky Linux

Rocky Linux(中文名:洛基)是由Gregory Kurtzer于2020年12月发起的企业级Linux发行版,作为CentOS稳定版停止维护后与RHEL(Red Hat Enterprise Linux)完全兼容的开源替代方案,由社区拥有并管理,支持x86_64、aarch64等架构。其通过重新编译RHEL源代码提供长期稳定性,采用模块化包装和SELinux安全架构,默认包含GNOME桌面环境及XFS文件系统,支持十年生命周期更新。

用户登录
用户注册