阿里巴巴、百度开始采用自研芯片训练 AI 模型
《The Information》援引直接知情人士的消息报道,阿里巴巴和百度已开始使用自主设计的芯片训练其 AI 模型,部分替代了英伟达生产的芯片。
报道称,自今年初以来,阿里巴巴针对轻量级 AI 模型使用自研芯片;而百度则在尝试用其昆仑 P800 芯片训练新版文心一言(Ernie)AI 模型。
不过,阿里和百度都并未完全放弃英伟达,两家公司仍在使用英伟达的芯片来开发其最尖端模型。
英伟达发言人对此表示:“竞争无疑已经到来…… 我们将继续努力,赢得全球各地主流开发者的信任与支持。”
上月,英伟达 CEO 黄仁勋 (Jensen Huang) 表示,正在与白宫讨论在华销售下一代 AI 芯片,但需要时间。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
MiniMax 发布新一代音乐生成模型 Music 1.5
MiniMax发布了新一代音乐生成模型Music 1.5,单次可生成最长4分钟完整歌曲,支持流行、爵士、摇滚、蓝调等多种风格,并新增对中国小众及民族乐器的建模。 该模型还提供“高级模式”,允许用户用自然语言描述风格、情绪、场景,并对Intro、Verse、Chorus等段落进行歌词与结构级精细控制,实现段落界限清晰、副歌爆点突出的“叙事级”听觉体验。 Music 1.5同步向全球开发者开放API,官方称延续“全球最高性价比”策略,方便影视、游戏、短视频、虚拟偶像、企业品牌等场景快速调用。 用户可登录官网音频页面minimaxi.com/audio/music即刻体验,也可通过API将AI音乐能力集成至应用与创作工作流。
-
下一篇
蚂蚁与中国人民大学发布首个原生 MoE 扩散语言模型
蚂蚁集团与中国人民大学联合发布业界首个原生MoE架构的扩散语言模型(dLLM)“LLaDA-MoE”。 该模型通过非自回归的掩码扩散机制,在大规模语言模型中实现了与Qwen2.5相当的语言智能(如上下文学习、指令遵循、代码和数学推理等),挑战了“语言模型必须自回归”的主流认知。 实验数据显示,LLaDA-MoE模型性能效果在代码、数学、Agent等任务上领先于LLaDA1.0/1.5和Dream-7B等扩散语言模型,接近或超越了自回归模型Qwen2.5-3B-Instruct,仅激活1.4B参数即可实现等效3B稠密模型的性能。 “LLaDA-MoE模型验证了工业级大规模训练的扩展性和稳定性,意味我们在把dLLM训扩到更大规模的路上又往前走了一步。”蚂蚁集团通用人工智能研究中心主任、西湖大学特聘研究员、西湖心辰创始人蓝振忠在发布现场表示。 中国人民大学高瓴人工智能学院副教授李崇轩介绍,“两年过去,AI大模型能力突飞猛进,但存在一些问题始终没有得到本质上的解决。究其原因,这是当前大模型普遍采用的自回归生成范式所造成的——模型天然是单向建模的,从前往后依次生成下一个token。这导致它们难以...
相关文章
文章评论
共有0条评论来说两句吧...