Rancher 社区双周报| Longhorn v1.10.0 重磅发布
在本期 Rancher 社区双周报 中,我们为大家带来了多个核心产品的最新版本动态: Longhorn 发布了 v1.9.2 与 v1.10.0 两个版本,其中 v1.10.0 引入了 V2 Data Engine 的重大增强,带来更高性能与更强扩展性; Rancher 发布了四个版本(v2.9.12、v2.10.10、v2.11.6、v2.12.2),其中多个 Prime 版本聚焦于安全修复与系统稳健性提升; RKE2 与 K3s 分支均完成了 Kubernetes 版本的例行更新,优化核心组件并强化集群可靠性; 同时,Harvester v1.5.2 带来了更流畅的虚拟化体验,K3k v0.3.5 则在资源同步与镜像管理方面持续进化。
这一系列更新共同展现了 Rancher 技术生态的持续完善与活力,为用户在容器、虚拟化与边缘计算场景中的落地提供了更加坚实的基础。
Longhorn
Longhorn 发布了 v1.9.2 与 v1.10.0 两个版本更新。本次更新聚焦于系统稳定性与性能增强,同时引入了多项新特性与兼容性优化,进一步提升了 Longhorn 在企业级云原生存储场景中的可靠性与易用性。
Longhorn v1.9.2
Longhorn v1.9.2 版本主要聚焦于系统稳定性和可靠性提升,修复了多个潜在问题,包括卷扩容时可能出现的数据损坏、磁盘空间不足引起的卷异常、以及备份目标不可用导致的恢复失败等。该版本还改进了探针配置、日志输出及备份超时机制,优化了支持包的收集范围,进一步提升了系统的可维护性和故障排查效率。
Longhorn v1.10.0
Longhorn v1.10.0 是一次重要的功能更新,引入了对 V2 Data Engine 的全面增强,在性能、资源占用和可扩展性方面均有显著提升。 该版本在存储引擎层面增加了中断模式以降低 CPU 消耗,支持卷克隆、在线扩容、QoS 限速等关键能力,为多租户与高负载场景提供了更高的灵活性和性能保障。
此外,Longhorn v1.10.0 进一步完善了网络与存储调度支持,新增 IPv6 网络兼容 与 CSIStorageCapacity 调度优化机制;在数据保护方面,引入了可配置的备份块大小与更高效的备份清理逻辑。 同时,Longhorn 统一了配置文件格式,移除了旧版 v1beta1 API,并对 UI 界面与监控指标体系进行了重构,使系统的可观测性、操作体验与上层产品(如 Harvester)的集成能力显著增强。
如需详细了解各版本的更新内容,请查阅:
Rancher
近期,Rancher 团队同步发布了多个补丁版本:v2.9.12、v2.10.10、v2.11.6 与 v2.12.2。其中,v2.9.12、v2.10.10 和 v2.11.6 为 Prime 版本,主要面向企业用户提供安全加固与维护修复;v2.12.2 则为 Community 与 Prime 双版本同步更新,覆盖了开源与商业发行渠道。
本次更新的核心聚焦于 安全漏洞修复与系统稳健性提升,共涉及以下三个安全问题:
安全修复重点
-
用户名唯一性限制(CVE-2024-58260) 之前版本中,若用户 A 和 B 拥有相同用户名,可能导致任一用户无法登录,甚至可被恶意利用阻止管理员登录。 新版本中,用户名一旦设置将不可修改,且禁止创建重复用户名,从根本上防止该问题发生。
-
CLI 登录安全增强(CVE-2024-58267) Rancher CLI 现已在登录过程中更明显地显示
requestId
,并在请求中添加cli=true
标识。 Rancher Dashboard 会根据该标识识别请求来源并提示用户验证操作,从而防止伪造登录请求。 -
敏感头字段清理(CVE-2025-54468) Rancher 现已移除
/meta/proxy
接口中的Impersonate-*
请求头,避免在创建云凭证等场景中泄露可识别或敏感信息。
这些修复已全部在 v2.9.12、v2.10.10、v2.11.6 与 v2.12.2 中生效,显著提升了 Rancher 在身份验证与数据安全方面的防护能力。
如需详细了解各版本发布内容,可参阅:
Harvester
在本次更新中,Harvester 发布了 v1.5.2 版本,带来了多项功能优化与系统修复,进一步提升了稳定性与用户体验。本次版本将底层组件全面升级至最新补丁版本,包括 Rancher v2.11.3、RKE2 v1.32.7+rke2r1 与 KubeVirt v1.4.1,从而增强虚拟化性能与资源管理能力。同时,系统在高可用性与升级流程方面也进行了改进,确保集群运行更流畅可靠。
在修复部分,v1.5.2 解决了多项关键问题,如 RWX 卷竞争条件、ShareManager 异常终止、EFI 模式下 PXE 启动失败以及版本同步器崩溃等问题。此外,还修复了节点磁盘使用多路径(mpath)时的升级卡顿问题,并改善了 Rancher 集成时的 UI 兼容性。
详细内容请参阅:Harvester v1.5.2 发布说明
RKE2
在本次更新中,RKE2 各稳定分支均完成了例行版本升级,分别对应最新的 Kubernetes 版本:v1.31.13、v1.32.9、v1.33.5、v1.34.1。
目前,RKE2 stable 版本为 v1.33.5+rke2r1,latest 版本为 v1.34.1+rke2r1。
此外,还同步更新了 containerd、runc、etcd、CoreDNS、metrics-server 等核心组件,CNI 插件(Calico、Cilium)与 ingress-nginx 也获得了新版本支持。此次更新同时提升了对 vSphere 环境的兼容性,并引入了 Go 语言版本更新,以进一步增强系统的稳定性与性能。
详细更新内容可查看以下发布说明:
- RKE2 v1.31.13+rke2r1 发布说明
- RKE2 v1.32.9+rke2r1 发布说明
- RKE2 v1.33.5+rke2r1 发布说明
- RKE2 v1.34.1+rke2r1 发布说明
K3S
在本次更新中,K3s 发布了 v1.31.13+k3s1、v1.32.9+k3s1、v1.33.5+k3s1 和 v1.34.1+k3s1 四个版本,其中 stable 版本为 v1.33.5+k3s1,latest 版本为 v1.34.1+k3s1。这些版本同步更新至对应的 Kubernetes 版本,集中修复了多项组件问题,并优化了 etcd、containerd、runc 等关键模块的性能与可靠性。
更新亮点包括:改进 etcd 节点加入与超时机制、优化 Spegel 日志与启动流程、支持通过 --debug
统一控制 cri-dockerd 日志等级、增强 CRD 创建冲突的重试机制,并新增 kine 与 remotedialer 指标采集 功能。特别是 v1.34.1 版本引入了基于 Buildroot 2025.02 LTS 的用户态二进制包,并支持 nft json 输出格式,提升了与 kube-proxy 的兼容性。
详细更新内容请参阅以下发布说明:
K3K
K3k v0.3.5 发布,本次更新进一步完善了虚拟集群同步与资源管理逻辑,显著提升了系统稳定性与易用性。版本中新增了 资源同步配置(Resource Sync Configuration),允许用户更灵活地控制虚拟集群与宿主集群间的同步范围;同时增强了 PVC 同步机制,修复了默认值处理异常问题。此外,还新增了 镜像拉取凭证(ImagePullSecrets) 支持,使控制器、Server 与 Agent 的镜像管理更加安全可靠。
开发与测试方面,K3k v0.3.5 引入了 控制器覆盖率统计、单实例暴露模式验证 以及测试拆分优化,提升了代码可维护性与持续集成质量。
详细更新内容请参阅:
写在最后
通过本期更新,我们可以看到 Rancher 在多产品线间保持着稳定且高频的版本节奏,不仅持续强化底层技术栈的安全性与性能,也在不断优化用户体验与生态协同。 未来,Rancher 社区将继续聚焦开源创新,推动 Kubernetes 与云原生技术的普惠化与场景化应用,助力更多企业构建更高效、更可信赖的基础设施。
敬请关注 Rancher 官方微信公众号,获取最新版本动态、实践案例与技术分享。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
OpenAI 与博通达成战略合作,开发定制 AI 芯片
OpenAI官宣与博通(Broadcom)建立战略协作,双方将联合开发定制AI芯片并部署规模达10吉瓦的推理基础设施,计划于2026至2029年分阶段落地,标志着OpenAI向AI基础设施自主化迈出关键一步。 此次合作突破传统“采购芯片”模式,由OpenAI主导芯片设计,注入模型算法洞见,博通则负责底层架构协作、硬件集成及网络方案支撑,涵盖芯片制造、网络互联至数据中心优化全链路。其定制芯片针对大型语言模型负载优化,结合博通硅光子学技术,可降低15-20%功耗并减少30%以上数据传输瓶颈。 OpenAI CEO Sam Altman表示,此举旨在构建从硬件到服务的全链条系统,破解算力短缺难题。该合作预计将大幅缩短万亿参数模型训练周期,为全球数十亿用户的智能助理规模化落地提供算力基座,同时推动AI硬件从通用向专用化转型。
-
下一篇
Meta 超级智能实验室推出新技术,使大模型 RAG 推理速度提升 30 倍
Meta 的超级智能实验室(Meta Superintelligence Labs,MSL)发表了首篇重要论文,研究成果显著提升了大语言模型在检索增强生成(RAG)任务中的推理速度,提升幅度达到了30倍以上。 这篇论文名为《REFRAG:Rethinking RAG based Decoding》,主要探讨如何让大型语言模型在执行 RAG 任务时,快速提炼出重要信息,以减少计算量并缩短反应时间,而同时保持准确性不变。 Meta超级智能实验室于今年6月正式成立,总部位于加利福尼亚州的门洛帕克,旨在研发超级智能技术。根据报道,扎克伯格在4月份对 Meta最新发布的 Llama4模型表现不满,甚至要求员工加班加点来改进。这促使他成立了这个新实验室,并引入了大量顶尖人才,包括 Scale AI 的创始人 Alexandr Wang。 在实验室内部,团队被分为四个小组,分别负责大语言模型的研发、人工智能基础研究、产品技术落地以及基础设施的保障。REFRAG 框架的提出,正是实验室在优化大语言模型性能方面的第一步。 REFRAG 框架的核心理念是,通过一个轻量级模型将冗长的上下文内容压缩成摘要,减...
相关文章
文章评论
共有0条评论来说两句吧...