SUSE退出Ceph市场,选择了Longhorn
本文转载自微信公众号「存储加速器」,作者存储加速器。转载本文请联系存储加速器公众号。
SUSE正在废弃其基于Ceph的SUSE Enterprise Storage(SES)产品。目前这家德国Linux商店尚未正式宣布这一举动,但据我们了解,它已将12月份的决定告知了一些合作伙伴和客户。
2月16日,亚当·博伊汉(Adam Boyhan)在Ceph用户列表中发布的邮件通知我们SES即将消亡:“几周前,我获悉SUSE将关闭SES,并且将不再出售它。”
浏览SUSE官网商店显示,无法购买SES,因此看下公司官网解释。
SUSE首席技术和产品官Thomas Di Giacomo通过电子邮件发送了一份声明:"SUSE继续为所有现有的SUSE Enterprise Storage客户和合作伙伴提供支持,并且我们的支持将始终保持高质量和满意。此支持包括这些客户和合作伙伴根据这些部署所需扩展容量的选项。"
我们的最新版本的SUSE Enterprise Storage于2020年底发布。SUSE还利用Longhorn(通过Rancher收购)利用适当的存储部署。
随着新的IT要求的发展以及世界继续采用容器,SUSE在与我们的主要合作伙伴,客户和开源社区紧密合作的同时,致力于我们未来的存储解决方案。
SUSE于2020年12月收购了Kubernetes管理软件供应商Rancher Labs,因此大约在同一时间,它决定放弃SES。Rancher的Longhorn为容器提供了持久的存储。
Ceph是一个开源的分布式对象存储平台,它支持文件和块访问协议以及对象访问。第一个稳定版本于2012年7月发布,此后此平台稳步发展。红帽是Ceph的最主要支持者,而Ceph是公司OpenShift容器存储平台的一部分。该公司于2014年收购了Ceph的主要开发商Inktank。
SUSE开发SES作为其Linux发行版suselinux企业服务器(SLES)的扩展。该公司于2015年2月发布了SES。SES6于2019年夏天发布,增加了一个图形用户界面。当时计划推出第7版。这将在容器中部署Ceph,为容器提供存储,并为Kubernetes使用Rook orchestrator。
SUSE于2018年被瑞典私募股权公司EQT从MicroFocus收购。EQT旨在对SUSE进行IPO,目标是60亿美元的估值。?
参考链接:
https://www.theregister.com/2021/03/25/suse_kisses_ceph_goodbye/

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Security Biz发布RDP账户泄漏自查网站
威胁防御公司Advanced Intelligence近日推出了一个RDP服务器攻击自查网站(免费),帮助有关企业组织检查其RDP服务器是否已经遭到攻击。 Advanced Intelligence声称可以访问130万个被攻击的RDP服务器及其凭据,这些服务器信息已在一个流行的暗网网站UAS上出售。 UAS在暗网上运行了大约五年,专门提供对RDP服务器的访问。众所周知,它是最大、最可靠的此类暗网市场之一。 随着远程工作人员使用微软解决方案从家里访问他们的公司Windows桌面,针对RDP服务器的攻击在新冠病毒大流行过程中呈爆炸式增长。 根据ESET的《2020年第四季度威胁报告》,去年第一季度到第四季度针对RDP的攻击增加了768%。 “(UAS)市场与全球许多重大的网络攻击事件和勒索软件案件相关。已知许多勒索软件组购买了UAS的初始访问权限。”Advanced Intelligence解释说。 “这种攻击数据库为了解网络犯罪生态系统提供了一个视角,也表明那些唾手可得的访问权限,例如密码不佳以及暴露在互联网上的RDP仍然是造成破坏的主要原因之一。” 同时,Advanced Intell...
- 下一篇
PHP如何在两个大文件中找出相同的记录?
引言 给定a,b两个文件, 分别有x,y行数据, 其中(x, y均大于10亿), 机器内存限制100M,该如何找出其中相同的记录?<!--more--> 思路 处理该问题的困难主要是无法将这海量数据一次性读内内存中. 一次性读不进内存中,那么是否可以考虑多次呢?如果可以,那么多次读入要怎么计算相同的值呢? 我们可以用分治思想, 大而化小。相同字符串的值hash过后是相等的, 那么我们可以考虑使用hash取模, 将记录分散到n个文件中。这个n怎么取呢? PHP 100M内存,数组大约可以存100w的数据, 那么按a,b记录都只有10亿行来算, n至少要大于200。 此时有200个文件,相同的记录肯定在同一个文件中,并且每个文件都可以全部读进内存。那么可以依次找出这200个文件中各自相同的记录,然后输出到同一个文件中,得到的最终结果就是a, b两个文件中相同的记录。 找一个小文件中相同的记录很简单了吧,将每行记录作为hash表的key, 统计key的出现次数>=2就可以了。 实操 10亿各文件太大了,实操浪费时间,达到实践目的即可。 问题规模缩小为: 1M内存限制, a,...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Hadoop3单机部署,实现最简伪集群
- CentOS7安装Docker,走上虚拟化容器引擎之路
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- CentOS6,7,8上安装Nginx,支持https2.0的开启
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS7设置SWAP分区,小内存服务器的救世主
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作