您现在的位置是:首页 > 文章详情

百川智能发布 Baichuan 2,号称全面领先 LLaMA 2

日期:2023-09-07点击:93

百川智能宣布正式开源微调后的 Baichuan2-7B、Baichuan2-13B、Baichuan2-13B-Chat与其4bit量化版本,并且均为免费可商用。

根据介绍,Baichuan2-7B-Base 和 Baichuan2-13B-Base,均基于 2.6万亿高质量多语言数据进行训练,在保留了上一代开源模型良好的生成与创作能力,流畅的多轮对话能力以及部署门槛较低等众多特性的基础上,两个模型在数学、代码、安全、逻辑推理、语义理解等能力有显著提升。其中Baichuan2-13B-Base相比上一代13B模型,数学能力提升49%,代码能力提升46%,安全能力提升37%,逻辑推理能力提升25%,语义理解能力提升15%。

本次开源的两个模型在各大评测榜单上的表现优秀,在MMLU、CMMLU、GSM8K等几大权威评估基准中,以绝对优势领先LLaMA2,相比其他同等参数量大模型,表现也十分亮眼,性能大幅度优于LLaMA2等同尺寸模型竞品。

且根据MMLU等多个权威英文评估基准评分 Baichuan2-7B以70亿的参数在英文主流任务上与130亿参数量的LLaMA2持平。

Baichuan2-7B和Baichuan2-13B不仅对学术研究完全开放,开发者也仅需邮件申请获得官方商用许可后,即可以免费商用。

与此同时,百川智能还宣布开源了模型训练从220B到2640B全过程的 Check Ponit。

并公开了Baichuan 2的技术报告。技术报告将详细介绍Baichuan 2训练的全过程,包括数据处理、模型结构优化、Scaling law、过程指标等。

王小川透露,按照公司计划,今年四季度将发布对标GPT-3.5的千亿级参数模型,预计于明年一季度发布超级应用。“除开源模型以外,下一次在闭源模型上会有更多的突破,希望在中国的开源闭源生态中都能给中国的经济社会发展带来我们的贡献。”

原文链接:https://www.oschina.net/news/257190
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章