您现在的位置是:首页 > 文章详情

Stability AI 推出更小、更高效的 1.6B 语言模型

日期:2024-01-21点击:83

Stability AI 宣布推出迄今为止最强大的小语言模型之一 Stable LM 2 1.6B。以英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语的多语言数据为基础进行了训练,体积小、速度快,降低了硬件门槛;并提供了完全透明的训练细节,旨在让开发人员和模型创建者能够快速进行实验和迭代。

Stable LM 是一种文本内容生成 LLM,Stability AI 于 2023 年 4 月首次推出了 30 亿和 70 亿参数模型。新的 StableLM 模型实际上是 Stability AI 在 2024 年发布的第二个模型,此前该公司在早些时候还发布了一个 Stable Code 3B。

Stability AI 声称,Stable LM 2 1.6B 在大多数基准测试中均优于其他参数低于 20 亿个的小语言模型,如微软的 Phi-1.5 (1.3B) 和 Phi-2 (2.7B)、TinyLlama 1.1B 或 Falcon 1B。

不过他们也警告称,由于小型、低容量语言模型的特性,Stable LM 2 1.6B 可能会出现高幻觉率、潜在的有毒语言等类似的常见问题。“我们要求社区在构建应用程序时牢记这一点,并采取适当措施确保以负责任的方式进行开发。”

Stable LM 2 1.6B 目前可在商业和非商业领域使用,只要拥有 Stability AI 会员资格,即可在 Hugging Face 上测试该模型。

原文链接:https://www.oschina.net/news/276269/stable-lm-2-1-6b
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章