在K8S上使用RancherVM,以容器的方式跑虚机
RancherVM是一个开源的、轻量化的虚拟机管理工具,让用户能够和运行Docker容器一样,打包和运行虚拟机。
RancherVM项目自几年前推出以来,得到了大量用户的积极反馈。用户也在过去几年时间里为Rancher Labs工程团队提出了不少极有价值的意见与建议,尤其是对节点集群上的虚拟机的管理这一方面的需求。
如今,用户可以在Kubernetes上使用RancherVM了! 现在的RancherVM中添加了资源调度、基于浏览器的VNC客户端、IP地址发现、基于密钥的身份验证以及新版本的用户界面。本文将带你一探究竟!
RancherVM设计思路
RancherVM在深层次上大量使用了Docker容器化以及容器镜像仓库。虚拟机基础镜像被打包成Docker镜像发布到任意Docker镜像仓库中。RancherVM还自带了很多存储在Docker Hub中的、大受欢迎的操作系统镜像。用户可以在各种公有和私有镜像仓库中进行自由选择,甚至可以运行自己的私有镜像仓库:https://docs.docker.com/registry/deploying/。
现在,每个虚拟机都运行在Kubernetes pod中,我们称之为VM pod。Kubernetes控制器负责管理vm pod的生命周期,授予用户启动或关闭虚拟机、修改机器的cpu和内存分配的权限等等。
持久化存储
RancherVM系统定义了自己的自定义资源定义(Custom Resource Definitions, 简称CRD),并将所有状态存储在其中。因此,除了运行Kubernetes所需要的持久化数据存储之外,RancherVM对存储不再有其他额外的要求。REST服务器会提供端口,供这些CRD上的 CRUD操作的执行。并且通过全新的UI,REST服务器已有了更好的用户体验。
调度
我们现在利用Kubernetes调度器,将vm pod智能化地放置在多个节点上。限制CPU和内存资源可以确保vm pod可以安全地调度到资源充足的主机上。根据节点的大小,单个主机可以实现100+个vm pods。调度虚拟机不需要额外的开销,而扩展性的限制应该是由Kubernetes本身决定的。在实践中,我们已经看到了1000+个节点集群的案例。
网络
RancherVM使用桥接网络为用户虚拟机提供连接。每一个虚拟机pod为了保留自己的网络身份,会将其分配到的MAC地址保存到它的虚拟机CRD中。IP地址管理需要一个外部的DHCP服务器。当然如果DHCP的租约过期,vm pod关闭了很长时间的话,它的IP地址可能会改变。
控制器会在每个节点上运行,将MAC地址解析成外部DHCP分配的IP地址。通常云供应商不会这么做,因为他们是通过实现DHCP服务器来执行自己的IP地址管理的(IPAM)。这样我们在桥接网络时就不需要控制DHCP服务器或者在虚拟机内部添加instrument。
这种设计也存在着一些固有的扩展性限制——你桥接的网络必须具有足够的大小,能够向每个VM提供唯一的IP地址。
如何使用RancherVM
RancherVM需要一个运行中的Kubernetes集群,其中包含了运行基于Debian的操作系统和KVM的节点。
运行下面的命令可以将RancherVM组件部署到你的Kubernetes集群中。
GUI
部署完成后,你可以通过查询前端Kubernetes服务找到UI端点:
现在你可以导航到<node_ip>:30874来访问UI。
如果想要启动SSH远程访问,你还可以添加你的公钥。在Credentials界面上,单击Create,添加你的公钥,起上一个好名字后,然后单击OK。
创建实例也非常简单。在Instances界面上单机Create。你会看到一个需要填写的表格。你需要添加自己的公钥或者启用NoVNC网络服务器。单击OK就可以了!
过一会你就可以看到虚拟机运行起来了,并且分配了IP地址。
现在你可以使用自己的私钥通过SSH连接到机器。用户名是依你所部属的操作系统而异的。比如Ubuntu用户的用户名是Ubuntu,CentOS用户是Centos,Fedora用户是Fedora等等。
出于安全考虑,在默认情况下,基于密码的SSH连接是禁用的。如果你选择放弃将公钥添加到虚拟机规范中,你可以使用NoVNC来访问机器。单击NoVNC按钮打开浏览器内的控制台。如果是Rancher提供的镜像,那么用户名是rancher,密码是rancher。
Dashboard提供了当前系统中CRDs的概要情况:
CLI
使用kubectl的用户,可以通过操作CRD从命令行来管理系统。这里有一些从命令行向系统添加凭证和虚拟机的示例:https://github.com/rancher/vm/tree/master/hack/example
并不是所有的修改都会立即生效,有时可能需要停止之后再启动虚拟机才能响应一些规范的更改,比如CPU/内存分配的变更。
RancherVM的下一步开发计划
在未来的几周内,RancherVM将增加对实时迁移的支持。用户可能会遇到这样的情况,例如现有虚拟机的资源需求超过了物理主机上可用的资源上限,或者运维人员为了做一些维护工作而需要中断主机执行,在这些情况下,以一种对终端用户而言透明的方式将正在运行的虚拟机迁移到另一台主机上,是至关重要的。
我们也在考虑将RancherVM与像Longhorn这样的复制块存储系统进行集成。
RancherVM完全开源,任何人都可以免费使用。未来RancherVM还会进一步发展。
本文转移开源中国-在K8S上使用RancherVM,以容器的方式跑虚机
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
kubeadm工作机制分析
介绍 kubeadm一共提供了5个子命令: kubeadm init kubeadm join kubeadm token kubeadm reset kubeadm version 这个可以在k8s v1.5.0 代码中cmd/kubeadm/app/cmd/cmd.go:29看到: func NewKubeadmCommand(f cmdutil.Factory, in io.Reader, out, err io.Writer) *cobra.Command { cmds := &cobra.Command{ Use: "kubeadm", Short: "kubeadm: easily bootstrap a secure Kubernetes cluster", ... } cmds.ResetFlags() cmds.SetGlobalNormalizationFunc(flag.WarnWordSepNormalizeFunc) cmds.AddCommand(NewCmdInit(out)) cmds.AddCommand(NewCmdJoin(out)) cm...
- 下一篇
容器化弹性伸缩集群:kuberntes环境构建
1. 简介 redhat 在今年9月份发布了k8s 和 etcd 的yum 源(redhat 7),我们下面都是基于redhat 7操作系统以yum来构建k8s集群,你也可以到github 下载kubernetes 进行安装部署 下面是k8s集群架构 kubernetes 架构 2. 集群架构部署 基本信息 #服务器分配 192.168.9.155 kubem #k8s master 192.168.9.7 kubes1 #k8s minion1 192.168.9.6 kubes2 #k8s minion2 192.168.9.209 etcd #etcd #版本选择 etcd v2.1.1 kubernetes v1.0.3 2.1 etcd 安装配置(etcd) 安装etcd yum install etcd -y 配置 etcd配置文件 这里我直接使用脚本进行替换配置,也可以手工修改,主要是配置etcd地址,这里主要做演示,就不搭建etcd集群了,如果搭建etcd集群可以参考coreos doc 构建etcd集群. 注意:这里的ip变量,因为我的地址是192网段, 所以我这里简...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Hadoop3单机部署,实现最简伪集群
- CentOS8编译安装MySQL8.0.19
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- Mario游戏-低调大师作品
- CentOS6,CentOS7官方镜像安装Oracle11G