开源模型 Zephyr-7B🪁发布——跨越三大洲的合作
最近我们刚刚发布了新的开源模型 Zephry-7B🪁, 这个模型的诞生离不开全球三大洲开源社区的协作 ❤️。
我们的 CSO Thomas 录了一个视频介绍了它的起源故事。
✨ 就在几个月前,巴黎的一个新团队发布了他们首个模型: Mistral 7B,这个模型体积小巧但性能强劲,在基准测试中的表现超过了所有同类模型。而且这是个开源模型,这意味着大家都可以在此基础上进行开发。
✨ 开发者 Lewis 在瑞士伯尔尼,Ed 在法国南部里昂,他们俩都是 Hugging Face H4 团队的一员。在 Hugging Face 举办的一次小聚中,他们边喝咖啡边讨论用斯坦福大学新发表的 DPO 方法对模型进行微调的可能性。于是大家决定用他们已经构建好的代码库来尝试一下💪
✨接下来的一天,他们在 HF hub 上找到了一些公开的数据集,主要是由清华的 OpenBMB 团队新近开源的两个大型、高质量的微调数据集: UltraFeedback 和 UltraChat 📊
✨ 经过几轮训练实验,他们的想法得到了证实: 这个新模型非常强大,在伯克利和斯坦福的基准测试中是他们见过的最强模型。Clémentine 是 Hugging Face Open LLM Leaderboard 的领头人,她对模型的深入分析确认了其卓越性能。于是 H4 团队中另一位成员 Sasha Rush 教授迅速起草了一篇研究报告,将所有细节分享给整个社区 📰
✨ 几天后,这个名为 Zephyr 的模型、研究论文以及所有细节都向世界公开了。不久之后,全球各地的公司开始应用这一模型。LlamaIndex,一个知名的数据框架和社区,分享了这个模型在实际用例基准测试中超乎预期的表现。与此同时,研究者和实践者们在 Hugging Face hub 上讨论着这篇论文和相关工作。
✨ 很难相信,这一切的实现仅仅用了几周时间 🤯!这一切都得益于世界各地 (欧洲、加利福尼亚、中国) 对知识、模型、研究和数据集的开放,以及开源社区之间的相互协作 🤝
✨ 这样的故事在开源社区比比皆是,也正是这些人和事让开源社区始终保持不断创新的原动力 🔥
✨ 齐心协力,我们可以一起创造出惊人的成果 ❤️
本文分享自微信公众号 - Hugging Face(gh_504339124f0f)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
苹果将禁止“摇一摇”跳转广告
据时代财经报道,互联网大厂内部人士常乐年称,11 月以来,苹果公司已通知国内多家头部 App 要求它们移除陀螺仪权限,摇一摇跳转广告被禁止。 据报道,11 月以来,苹果公司已通知在线视频软件、短视频软件、音频软件、邮箱软件等多种类型的 App,要求它们取消摇一摇跳转广告的功能。常乐年所在公司的 App 也在通知的范围内。他透露,接下来公司可能会发布新版本 App,在苹果的 App Store 上架,新版本将没有摇一摇跳转广告,具体发布时间还不确定。 另一位广告从业者也证实了这一消息,他的客户也是互联网大厂,旗下有行业头部 App。他说,收到通知的不只是头部 App,还有很多其他的 App,范围很广。 摇一摇功能调用的是陀螺仪权限,这是一种很早就有的功能,可以用来抢电视红包、识别歌曲等,但现在被用来做广告跳转,而有些手机没有陀螺仪权限开关,用户无法自行关闭。 一位手机大厂的工作人员说,这种跳转是 App 开发出来的商业模式,手机厂商很难做系统性的调整。 中国信息通信研究院此前联合华为、小米、OPPO、阿里巴巴等企业制定了团体标准 T / TAF 078.7—2022,于 2022 年 ...
- 下一篇
用 bitsandbytes、4 比特量化和 QLoRA 打造亲民的 LLM
众所周知,LLM 规模庞大,如果在也能消费类硬件中运行或训练它们将是其亲民化的巨大进步。我们之前撰写的 LLM.int8 博文 展示了我们是如何将 LLM.int8 论文 中的技术通过 bitsandbytes 库集成到 transformers 中的。在此基础上,我们不断努力以不断降低大模型的准入门槛。在此过程中,我们决定再次与 bitsandbytes 联手,支持用户以 4 比特精度运行任何模态 (文本、视觉、多模态等) 上的绝大多数 HF 模型。用户还可以利用 Hugging Face 生态系统中的工具在 4 比特模型之上训练适配器。这一工作基于 Dettmers 等人最近在 QLoRA 这篇论文中介绍的一种新方法,其论文摘要如下: 我们提出了 QLoRA,这是一种高效的微调方法,可减少内存使用量,使得在单个 48GB GPU 上就可以微调 65B 的模型,而且所得模型的性能与全 16 比特微调相当。QLoRA 通过冻结 4 比特量化的预训练语言模型将梯度反向传播到低秩适配器 (LoRA) 中。我们最好的模型 (我们将其命名为 Guanaco) 仅需在单个 GPU 上进行 24 ...
相关文章
文章评论
共有0条评论来说两句吧...