英伟达发布全新小型模型 Nemotron-Nano-9B-V2
英伟达发布了其最新的小型语言模型(SLM)——Nemotron-Nano-9B-V2。该模型在多个基准测试中表现出色,并在特定测试中达到了同类产品的最高水平。 Nemotron-Nano-9B-V2的参数量为90亿,虽然比一些数百万参数的微型模型要大,但它比之前的120亿参数版本显著减小,并专门针对单个英伟达 A10GPU 进行了优化。英伟达 AI 模型后训练总监 Oleksii Kuchiaev 解释说,这种调整是为了适配 A10这款热门的部署 GPU。此外,Nemotron-Nano-9B-V2是一款混合模型,能处理更大的批次,速度比同等规模的 Transformer 模型快6倍。 该模型支持多达九种语言,包括中、英、德、法、日、韩等,并擅长处理指令跟踪和代码生成任务。其预训练数据集和模型本身都已在 Hugging Face 和英伟达的模型目录中提供。 融合 Transformer 与 Mamba 架构 Nemotron-Nano-9B-V2基于Nemotron-H系列,该系列融合了Mamba和Transformer架构。传统的 Transformer 模型虽然强大,但在处理长序列...
