Rancher 社区双周报| Longhorn v1.10.0 重磅发布,企业级存储性能全面升级
在本期 Rancher 社区双周报 中,我们为大家带来了多个核心产品的最新版本动态: Longhorn 发布了 v1.9.2 与 v1.10.0 两个版本,其中 v1.10.0 引入了 V2 Data Engine 的重大增强,带来更高性能与更强扩展性; Rancher 发布了四个版本(v2.9.12、v2.10.10、v2.11.6、v2.12.2),其中多个 Prime 版本聚焦于安全修复与系统稳健性提升; RKE2 与 K3s 分支均完成了 Kubernetes 版本的例行更新,优化核心组件并强化集群可靠性; 同时,Harvester v1.5.2 带来了更流畅的虚拟化体验,K3k v0.3.5 则在资源同步与镜像管理方面持续进化。
这一系列更新共同展现了 Rancher 技术生态的持续完善与活力,为用户在容器、虚拟化与边缘计算场景中的落地提供了更加坚实的基础。
Longhorn
Longhorn 发布了 v1.9.2 与 v1.10.0 两个版本更新。本次更新聚焦于系统稳定性与性能增强,同时引入了多项新特性与兼容性优化,进一步提升了 Longhorn 在企业级云原生存储场景中的可靠性与易用性。
Longhorn v1.9.2
Longhorn v1.9.2 版本主要聚焦于系统稳定性和可靠性提升,修复了多个潜在问题,包括卷扩容时可能出现的数据损坏、磁盘空间不足引起的卷异常、以及备份目标不可用导致的恢复失败等。该版本还改进了探针配置、日志输出及备份超时机制,优化了支持包的收集范围,进一步提升了系统的可维护性和故障排查效率。
Longhorn v1.10.0
Longhorn v1.10.0 是一次重要的功能更新,引入了对 V2 Data Engine 的全面增强,在性能、资源占用和可扩展性方面均有显著提升。 该版本在存储引擎层面增加了中断模式以降低 CPU 消耗,支持卷克隆、在线扩容、QoS 限速等关键能力,为多租户与高负载场景提供了更高的灵活性和性能保障。
此外,Longhorn v1.10.0 进一步完善了网络与存储调度支持,新增 IPv6 网络兼容 与 CSIStorageCapacity 调度优化机制;在数据保护方面,引入了可配置的备份块大小与更高效的备份清理逻辑。 同时,Longhorn 统一了配置文件格式,移除了旧版 v1beta1 API,并对 UI 界面与监控指标体系进行了重构,使系统的可观测性、操作体验与上层产品(如 Harvester)的集成能力显著增强。
如需详细了解各版本的更新内容,请查阅:
Rancher
近期,Rancher 团队同步发布了多个补丁版本:v2.9.12、v2.10.10、v2.11.6 与 v2.12.2。其中,v2.9.12、v2.10.10 和 v2.11.6 为 Prime 版本,主要面向企业用户提供安全加固与维护修复;v2.12.2 则为 Community 与 Prime 双版本同步更新,覆盖了开源与商业发行渠道。
本次更新的核心聚焦于 安全漏洞修复与系统稳健性提升,共涉及以下三个安全问题:
安全修复重点
-
用户名唯一性限制(CVE-2024-58260) 之前版本中,若用户 A 和 B 拥有相同用户名,可能导致任一用户无法登录,甚至可被恶意利用阻止管理员登录。 新版本中,用户名一旦设置将不可修改,且禁止创建重复用户名,从根本上防止该问题发生。
-
CLI 登录安全增强(CVE-2024-58267) Rancher CLI 现已在登录过程中更明显地显示
requestId
,并在请求中添加cli=true
标识。 Rancher Dashboard 会根据该标识识别请求来源并提示用户验证操作,从而防止伪造登录请求。 -
敏感头字段清理(CVE-2025-54468) Rancher 现已移除
/meta/proxy
接口中的Impersonate-*
请求头,避免在创建云凭证等场景中泄露可识别或敏感信息。
这些修复已全部在 v2.9.12、v2.10.10、v2.11.6 与 v2.12.2 中生效,显著提升了 Rancher 在身份验证与数据安全方面的防护能力。
如需详细了解各版本发布内容,可参阅:
Harvester
在本次更新中,Harvester 发布了 v1.5.2 版本,带来了多项功能优化与系统修复,进一步提升了稳定性与用户体验。本次版本将底层组件全面升级至最新补丁版本,包括 Rancher v2.11.3、RKE2 v1.32.7+rke2r1 与 KubeVirt v1.4.1,从而增强虚拟化性能与资源管理能力。同时,系统在高可用性与升级流程方面也进行了改进,确保集群运行更流畅可靠。
在修复部分,v1.5.2 解决了多项关键问题,如 RWX 卷竞争条件、ShareManager 异常终止、EFI 模式下 PXE 启动失败以及版本同步器崩溃等问题。此外,还修复了节点磁盘使用多路径(mpath)时的升级卡顿问题,并改善了 Rancher 集成时的 UI 兼容性。
详细内容请参阅:Harvester v1.5.2 发布说明
RKE2
在本次更新中,RKE2 各稳定分支均完成了例行版本升级,分别对应最新的 Kubernetes 版本:v1.31.13、v1.32.9、v1.33.5、v1.34.1。
目前,RKE2 stable 版本为 v1.33.5+rke2r1,latest 版本为 v1.34.1+rke2r1。
此外,还同步更新了 containerd、runc、etcd、CoreDNS、metrics-server 等核心组件,CNI 插件(Calico、Cilium)与 ingress-nginx 也获得了新版本支持。此次更新同时提升了对 vSphere 环境的兼容性,并引入了 Go 语言版本更新,以进一步增强系统的稳定性与性能。
详细更新内容可查看以下发布说明:
- RKE2 v1.31.13+rke2r1 发布说明
- RKE2 v1.32.9+rke2r1 发布说明
- RKE2 v1.33.5+rke2r1 发布说明
- RKE2 v1.34.1+rke2r1 发布说明
K3S
在本次更新中,K3s 发布了 v1.31.13+k3s1、v1.32.9+k3s1、v1.33.5+k3s1 和 v1.34.1+k3s1 四个版本,其中 stable 版本为 v1.33.5+k3s1,latest 版本为 v1.34.1+k3s1。这些版本同步更新至对应的 Kubernetes 版本,集中修复了多项组件问题,并优化了 etcd、containerd、runc 等关键模块的性能与可靠性。
更新亮点包括:改进 etcd 节点加入与超时机制、优化 Spegel 日志与启动流程、支持通过 --debug
统一控制 cri-dockerd 日志等级、增强 CRD 创建冲突的重试机制,并新增 kine 与 remotedialer 指标采集 功能。特别是 v1.34.1 版本引入了基于 Buildroot 2025.02 LTS 的用户态二进制包,并支持 nft json 输出格式,提升了与 kube-proxy 的兼容性。
详细更新内容请参阅以下发布说明:
K3K
K3k v0.3.5 发布,本次更新进一步完善了虚拟集群同步与资源管理逻辑,显著提升了系统稳定性与易用性。版本中新增了 资源同步配置(Resource Sync Configuration),允许用户更灵活地控制虚拟集群与宿主集群间的同步范围;同时增强了 PVC 同步机制,修复了默认值处理异常问题。此外,还新增了 镜像拉取凭证(ImagePullSecrets) 支持,使控制器、Server 与 Agent 的镜像管理更加安全可靠。
开发与测试方面,K3k v0.3.5 引入了 控制器覆盖率统计、单实例暴露模式验证 以及测试拆分优化,提升了代码可维护性与持续集成质量。
详细更新内容请参阅:
写在最后
通过本期更新,我们可以看到 Rancher 在多产品线间保持着稳定且高频的版本节奏,不仅持续强化底层技术栈的安全性与性能,也在不断优化用户体验与生态协同。 未来,Rancher 社区将继续聚焦开源创新,推动 Kubernetes 与云原生技术的普惠化与场景化应用,助力更多企业构建更高效、更可信赖的基础设施。
敬请关注 Rancher 官方微信公众号,获取最新版本动态、实践案例与技术分享。

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
-
上一篇
求求了,别再让你的 GPU 公开“摸鱼”了!
先看几个令人心动又让钱包一紧的 GPU 型号:NVIDIA A100 80GB、H800 80GB、RTX 4090 24GB... 这些 AI 时代的“超级马力”,无论我们是砸钱买断,还是花高价租用,都只能整块拿下。可除了模型训练,更多时候只是用来跑推理、开发/测试环境,几十上百 GB 的显存真的全能派上用场吗?多数情况下,你的 GPU 算力其实都在“摸鱼”,利用率可能连 20% 都不到。 在算力就是钞票的 AI 时代,GPU 闲置哪是“摸鱼”,这分明是“撒币”行为。 如果你是 AI 团队的 Leader,一边要交代高昂算力开销,一边还要安抚抱怨“GPU 不够、流程太慢”的团队成员,是不是早已身心俱疲? 如果你是 MLOps 或平台工程师,每天盯着 GPU 集群利用率长期低于 20%,还得处理各种“抢资源”工单,是不是觉得自己的技术没用在刀刃上? 如果你是 AI 算法工程师,只是想跑个预处理、验证模型、调试代码,却要为一张被“霸占”却没被用满的 A100/H800 排队数小时,灵感都快被磨光了吧? 别急,今天的主角——HAMi,就是你的“开源解药”! GitHub 地址:github...
-
下一篇
LazyLLM教程 | 第10讲:探索Deepseek:打造思维能力更强的RAG系统
在上期教程中,我们探讨了如何通过微调提升模型的阅读理解和信息抽取能力,从而增强 RAG(检索增强生成)系统的整体效果。而近来 DeepSeek 在全球火热,凭借其强大的思维链推理能力,在数学推理方面有着卓越的表现。 本期教程我们将借助 DeepSeek-R1 的数学推理优势,采用知识蒸馏的技术,将其数学推理能力迁移到上期的小模型上,让一个小模型不仅保持上期增强了的阅读理解能力,而且还具备和DeepSeek-R1接近的数学推理能力,进而增强 RAG 系统在复杂推理任务中的表现。 DeepSeek 简介 DeepSeek是由中国人工智能公司DeepSeek开发的大语言模型,基于Transformer架构,采用混合专家模型(MoE)和多头潜在注意力机制(MLA),在推理效率和性能上表现出色。其核心产品 DeepSeek-V3 拥有6710亿参数,每次激活参数量为370亿,大幅降低了计算成本。 技术特点 混合专家模型(MoE):将模型分成多个专家模块,每个任务仅激活少量专家,减少激活参数量,提升效率。 多头潜在注意力机制(MLA):通过低秩压缩技术减少Key-Value缓存,显著提升推理效率...
相关文章
文章评论
共有0条评论来说两句吧...