zstd v1.5.5 发布,修复严重错误、优化性能
zstd (Zstandard) v1.5.4 已发布。此版本修复了在高度压缩模式下出现的罕见损坏错误。由于随机出现这种情况的可能性极低,所以在多次模糊测试中都没被发现。直到一名维护者收集到庞大的数据后才设法检测出一个案例。
官方建议用户升级到此版本,尤其是使用了高度压缩模式 high compression modes (levels 16+)。
其他改进包括:
- 改进
--patch-from
模式的内存使用和速度
V1.5.5
为 posix 和 windows 引入了内存映射字典。此功能允许zstd
对大型词典进行内存映射,而不是要求将它们加载到内存中。这对于为大型数据集运行补丁的内存受限环境来说可能会有很大的不同。
- 针对特定场景的中度压缩速度提升
1.5.0 版中针对 level 5-12 引入的行哈希匹配查找器在 1.5.5 版中得到了改进,提高了其在特定极端情况下的速度。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Go 1.20.3 & 1.19.8 发布,修复安全问题
Go 1.20.3 和 1.19.8 已发布。 两个版本的更新内容都是修复安全问题,包括对 go/parser, html/template, mime/multipart, net/http 和 net/textproto 软件包的安全修复,以及对编译器、链接器、运行时和时间软件包的错误修复。 详情查看 Release Notes。 下载地址
- 下一篇
每日一博 | 在一张 24 GB 的消费级显卡上用 RLHF 微调 20B LLMs
我们很高兴正式发布 trl 与 peft 的集成,使任何人都可以更轻松地使用强化学习进行大型语言模型 (LLM) 微调!在这篇文章中,我们解释了为什么这是现有微调方法的有竞争力的替代方案。 请注意, peft 是一种通用工具,可以应用于许多 ML 用例,但它对 RLHF 特别有趣,因为这种方法特别需要内存! 如果你想直接深入研究代码,请直接在 TRL 的文档页面 直接查看示例脚本。 介绍 LLMs & RLHF LLM 结合 RLHF (人类反馈强化学习) 似乎是构建非常强大的 AI 系统 (例如 ChatGPT) 的下一个首选方法。 使用 RLHF 训练语言模型通常包括以下三个步骤: 在特定领域或指令和人类示范语料库上微调预训练的 LLM; 收集人类标注的数据集,训练一个奖励模型; 使用 RL (例如 PPO),用此数据集和奖励模型进一步微调步骤 1 中的 LLM。 ChatGPT 的训练协议概述,从数据收集到 RL 部分。 资料来源: OpenAI 的 ChatGPT 博文 基础 LLM 的选择在这里是至关重要的。在撰写本文时,可以“开箱即用”地用于许多任务的“最佳”开源 ...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- SpringBoot2配置默认Tomcat设置,开启更多高级功能
- Red5直播服务器,属于Java语言的直播服务器
- CentOS7设置SWAP分区,小内存服务器的救世主
- CentOS7安装Docker,走上虚拟化容器引擎之路
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- CentOS关闭SELinux安全模块
- CentOS7,CentOS8安装Elasticsearch6.8.6
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- Linux系统CentOS6、CentOS7手动修改IP地址