Radical Numerics 开源 30B 参数 RND1
AI 研究机构 Radical Numerics 发布了 RND1-Base,这是迄今为止最大规模的开源扩散语言模型,参数规模达到30B,其中活跃参数为3B,采用稀疏专家混合架构。该模型不仅在基准测试中表现出色,还开源了完整权重、训练配方和推理代码,旨在加速扩散语言模型领域的后训练与推理研究。 RND1-Base基于Qwen3-30BA3B的自回归基础模型,通过简单的连续预训练实现了向扩散范式的无缝转型。转换过程采用双向掩码机制和特定于层的学习率以保留原有知识,并使用高达8M标记的大批量训练确保稳定性,最终在500B标记上完成预训练。这一高效方案避免了从零开始训练带来的资源浪费,体现了Radical Numerics在模型重用方面的创新思路。 与传统自回归语言模型逐个生成token的顺序模式不同,RND1将文本生成视作类似图像去噪的过程,从噪声中并行精炼整个序列,支持双向注意力机制。这不仅提升了生成的灵活性和可控性,还显著降低了推理延迟,特别适合复杂推理和代码生成任务。 在通用基准测试中,RND1-Base展现出强劲实力,超越了Dream-7B和LLaDA-8B等开源扩散语言模型前辈。...