kubernetes(k8s)搭建实践
碎碎念
按网上有些文章的意思,之前k8s是有提供安装的版本,并且有yum源,但是看目前是不需要安装的,解压可用
官网地址:https://github.com/kubernetes/kubernetes
可以自己下载源码包进行编译,不过需要go的支持,而且在墙内的话会编译不过,原因是需要的镜像被墙了,所以直接下载release版本即可,地址:https://github.com/kubernetes/kubernetes/releases
笔者使用的是Release v1.2.0-alpha.6,这个包已经有496 MB之大了,而之前的Release v1.1.4版本才182M,可见更新之快,之多,笔者之前还使用过1.0.1版本,有些接口和参数就已经发生变化了,比如之前kubectl expose的参数是public-ip,而现在改为externalIPs,所以大家实践时要根据自己的版本
环境说明:
2台机器,167和168,系统都是centos6.5
167上面会跑etcd,flannel,kube-apiserver,kube-controller-manager,kube-scheduler,自己也充当minion,所以也会跑kube-proxy和kubelet
168上只需要跑etcd,flannel,kube-proxy和kubelet,etcd和flannel是为了打通2台机器的网络
k8s是建立在docker之上的,所以docker是必须的
环境搭建
打通网络
k8s还需要etcd和Flannel的支持,先下载这2个包,注意2台机器都需要下载和执行
wget https://github.com/coreos/etcd/releases/download/v2.2.4/etcd-v2.2.4-linux-amd64.tar.gz wget https://github.com/coreos/flannel/releases/download/v0.5.5/flannel-0.5.5-linux-amd64.tar.gz
分别解压,然后添加到环境变量 cd etcd-v2.2.4-linux-amd64/ cp etcd etcdctl /usr/bin/ cd flannel-0.5.5/ cp flanneld mk-docker-opts.sh /usr/bin
运行
# 167上运行 etcd -name infra0 -initial-advertise-peer-urls http://172.16.48.167:2380 -listen-peer-urls http://172.16.48.167:2380 -listen-client-urls http://172.16.48.167:2379,http://127.0.0.1:2379 -advertise-client-urls http://172.16.48.167:2379 -discovery https://discovery.etcd.io/322a6b06081be6d4e89fd6db941c4add --data-dir /usr/local/kubernete_test/flanneldata >> /usr/local/kubernete_test/logs/etcd.log 2>&1 & # 168上运行 etcd -name infra1 -initial-advertise-peer-urls http://203.130.48.168:2380 -listen-peer-urls http://203.130.48.168:2380 -listen-client-urls http://203.130.48.168:2379,http://127.0.0.1:2379 -advertise-client-urls http://203.130.48.168:2379 -discovery https://discovery.etcd.io/322a6b06081be6d4e89fd6db941c4add --data-dir /usr/local/kubernete_test/flanneldata >> /usr/local/kubernete_test/logs/etcd.log 2>&1 &
注意中间的-discovery参数,这是个url地址,我们可以通过访问 https://discovery.etcd.io/new?size=2 来获得,size表示minion的数目,我们这里是2,2台机器要用同一个url地址,如果访问这个地址,会发现返回一坨json字符串,这个服务器我们也是可以自己搭建的 这样就启动成功了,然后我们可以在任意一台机器上执行
etcdctl ls etcdctl cluster-health
来确认已经成功启动,如果有错可以查看日志文件 tail -n 1000 -f /usr/local/kubernete_test/logs/etcd.log
然后在任一台机器上执行 etcdctl set /coreos.com/network/config '{ "Network": "172.17.0.0/16" }'
执行
[root@w ~]# etcdctl ls /coreos.com/network/subnets /coreos.com/network/subnets/172.17.4.0-24 /coreos.com/network/subnets/172.17.13.0-24 [root@w ~]# etcdctl get /coreos.com/network/subnets/172.17.4.0-24 {"PublicIP":"203.130.48.168"} [root@w ~]# etcdctl get /coreos.com/network/subnets/172.17.13.0-24 {"PublicIP":"203.130.48.167"}
可以看到167上的网段为172.17.4.13/24 168上的为172.17.14.0/24,我们后面建立的docker容器的IP就分别在这2个网段中
然后2台机器上分别执行flanneld >> /usr/local/kubernete_test/logs/flanneld.log 2>&1 &
在每个机器上执行: mk-docker-opts.sh -i source /run/flannel/subnet.env rm /var/run/docker.pid ifconfig docker0 ${FLANNEL_SUBNET}
然后重启docker service docker restart
这样2台机器上的容器的网络就打通了,后续可以看到效果 安装和启动k8s
wget https://github.com/kubernetes/kubernetes/releases/download/v1.2.0-alpha.6/kubernetes.tar.gz
然后各种解压 tar zxvf kubernetes.tar.gz cd kubernetes/server tar zxvf kubernetes-server-linux-amd64.tar.gz # 这个是我们需要执行命令的包 cd kubernetes/server/bin/
复制命令到环境变量中,这里我只复制了kubectl
cp kubectl /usr/bin/
在167上执行
./kube-apiserver --address=0.0.0.0 --insecure-port=8080 --service-cluster-ip-range='172.16.48.167/24' --log_dir=/usr/local/kubernete_test/logs/kube --kubelet_port=10250 --v=0 --logtostderr=false --etcd_servers=http://172.16.48.167:2379 --allow_privileged=false >> /usr/local/kubernete_test/logs/kube-apiserver.log 2>&1 & ./kube-controller-manager --v=0 --logtostderr=false --log_dir=/usr/local/kubernete_test/logs/kube --master=172.16.48.167:8080 >> /usr/local/kubernete_test/logs/kube-controller-manager 2>&1 & ./kube-scheduler --master='172.16.48.167:8080' --v=0 --log_dir=/usr/local/kubernete_test/logs/kube >> /usr/local/kubernete_test/logs/kube-scheduler.log 2>&1 &
这样就把master跑起来了, [root@w ~]# kubectl get componentstatuses NAME STATUS MESSAGE ERROR scheduler Healthy ok controller-manager Healthy ok etcd-0 Healthy {"health": "true"} etcd-1 Healthy {"health": "true"}
我们可以看到都很健康的在运行 然后我们就阔以愉快的在2台机器上跑minion需要的程序了(注意167同时也是minion)
# 167 ./kube-proxy --logtostderr=false --v=0 --master=http://172.16.48.167:8080 >> /usr/local/kubernete_test/logs/kube-proxy.log 2>&1 & ./kubelet --logtostderr=false --v=0 --allow-privileged=false --log_dir=/usr/local/kubernete_test/logs/kube --address=0.0.0.0 --port=10250 --hostname_override=172.16.48.167 --api_servers=http://172.16.48.167:8080 >> /usr/local/kubernete_test/logs/kube-kubelet.log 2>&1 & # 168 ./kube-proxy --logtostderr=false --v=0 --master=http://172.16.48.167:8080 >> /usr/local/kubernete_test/logs/kube-proxy.log 2>&1 & ./kubelet --logtostderr=false --v=0 --allow-privileged=false --log_dir=/usr/local/kubernete_test/logs/kube --address=0.0.0.0 --port=10250 --hostname_override=172.16.48.97 --api_servers=http://172.16.48.167:8080 >> /usr/local/kubernete_test/logs/kube-kubelet.log 2>&1 &
来确认启动成功 [root@w ~]# kubectl get nodes NAME LABELS STATUS AGE 172.16.48.167 kubernetes.io/hostname=172.16.48.167 Ready 1d 172.16.48.168 kubernetes.io/hostname=172.16.48.168 Ready 18h
2个minion都是Ready 提交命令
k8s支持2种方式,一种是直接通过命令参数的方式,另一种是通过配置文件的方式,配置文件的话支持json和yaml,下面只讲通过命令参数的方式
建立rc和pod
kubectl run nginx --image=nginx --port=80 --replicas=5
这样就建立了一个rc和5个pod 通过以下命令可以查看
kubectl get rc,pods
如果我们手工把建立的pod删掉,k8s会自动重新启动一个,始终确保pod的数目为5 跨机器间的通信
我们分别在167和168上用docker ps来查看,会发现2台机器上分别跑了一下nginx的容器,我们在2台机器上随意找一个容器进入,使用ip a来查看IP地址,会发现167上为172.17.13.0/24中,168为172.17.4.0/24中,我们分别ping对方的IP会发现是可以ping通的,说明网络已经通了,如果宿主机可以连上外网的话,在容器中也是可以访问外网的
如果我们不通过k8来启动容器,而是直接通过docker来启动容器,会发现启动的容器IP端也是在我们上述2个IP段之内的,并且和k8启动的容器的网络是互通的
当然IP端随机分配并且是内网的IP会给我们造成一些困扰
比如我们一般会这样做:通过docker启动容器,然后通过pipework来给其分配固定IP地址,既可以是内网IP也可以是外网IP,辣么,这样的话k8s启动的容器会和他们想通么
答案是通了一半,即通过k8s启动的容器是可以访问pipework设置的容器的内网IP和外网IP,但是反过来不行,pipework设置的容器是不能访问k8s启动的容器的,虽然是这样,但是不影响我们一般的需求,因为我们一般通过k8s启动的容器是web应用,通过pipework设置固定IP的是数据库之类,刚好可以满足从web应用访问数据库的需求
暴露service
kubectl expose rc nginx --port=80 --container-port=9090 --external-ip=x.x.x.168
port参数是容器的端口,因为nginx使用的80,所以这里必须是80 container-port和target-port是一个意思,指的是宿主机转发的端口,可以随意指定一个,也可以不指定
external-ip指的是对外暴露的ip地址,一般用公网IP地址,执行那个命令过后,我们就可以在公网上访问了,但是这里有个问题就是这个IP地址必须是安装了k8s的机器的IP,如果你随便用一个IP是不能访问的,这里也给应用上造成了不便
查看service
kubectl get svc
可以看到CLUSTER_IP和EXTERNAL_IP
后续的问题
如果用k8s做负载均衡的话,效率会怎样?怎么保持session?
由于现在k8s还不是很稳定,可能还不是很适合上生产环境
本文转移开源中国-kubernetes(k8s)搭建实践

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
k8s 使用篇 - deployment
Deployment管理Pods和ReplicaSets,提供声明式更新。和老的ReplicationController(命令式管理)对应,发展趋势是取代老的,所以后面也不会起文章单独讨论ReplicationController了。 但由Deployment-controller管理的Pods和ReplicaSets最好自始至终都由Deployment-controller管理,最好不要手动去管理,以免发生冲突。 创建Deployment 如下一个Deployment的配置(nginx-deployment.yaml),创建一个ReplicaSet包含3个nginx Pods apiVersion: apps/v1 kind: Deployment metadata: name: nginx-deployment labels: app: nginx spec: replicas: 3 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: - name: ...
- 下一篇
k8s最佳实践
构建小的镜像 通过下面两种方式可以减小构建镜像大小: Small Base Images:有些base镜像有非常齐全的工具链,考虑考虑是否需要这些工具链,还是只需要精简镜像版镜像并补充所需的工具 Builder Pattern:对于一些go、c语言项目,使用docker提供的builder pattern,先构建一个容器用来编译代码,并将编译结果拷贝到最终镜像中,最终镜像就是一个精简版linux镜像+可执行文件 小镜像可以提升两点: 性能:提升构建、上传、下载镜像的时间,可以极大降低新加宿主机的负载 安全性:镜像越小代表容器越小,容器越小代表容器可以被攻击的地方就越少,也就越安全 使用namespace 使用namespace将集群资源切分成多块,可以提高集群内部隔离性、管理效率和性能 使用Readiness和Liveness Probes做health check k8s提供了两种容器的health check机制: Readiness:用来check容器是否可以接收流量,如果check失败,就不让容器接收流量 Liveness:用来check容器是否存活,如果check失败,就重启...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- SpringBoot2整合Redis,开启缓存,提高访问速度
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- CentOS关闭SELinux安全模块
- CentOS7设置SWAP分区,小内存服务器的救世主
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16
- 设置Eclipse缩进为4个空格,增强代码规范
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- SpringBoot2全家桶,快速入门学习开发网站教程
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池