基于Rancher 2.2.5的高可用分布式集群环境搭建
说明:本文主要目的是记录在搭建内部学习的整个过程,仅供参考。
因机器准备中,待续...
-
机器配置及说明
机器简单以cloud-node(n)的方式命名,因为该集群环境中会部署rancher,k8s,harbor,helm,heketi,glusterfs等; 并不承担单一角色; 本次安装均用appuser用户进行、该用户拥有sudoer权限。- 操作系统: Red Hat Enterprise Linux Server release 7.3
- CPU:2C
- 内存:8G
- 存储:60G
- Docker: 18.06.3-ce
机器IP | 机器名 | 角色 | 附加存储 | 说明 |
---|---|---|---|---|
10.122.6.30 | cloud-node1 | load balancer(nginx) | 500G | 此机器部署在DMZ区,用于更新系统 |
10.122.4.44 | cloud-node2 | control panel,etcd | 500G | IDC区,由cloud-node1复制 |
10.122.4.45 | cloud-node3 | control panel,etcd | 500G | IDC区,由cloud-node1复制 |
10.122.4.46 | cloud-node4 | control panel,etcd | 500G | IDC区,由cloud-node1复制 |
10.122.4.47 | cloud-node5 | woker | 500G | IDC区,由cloud-node1复制 |
10.122.4.48 | cloud-node6 | woker | 500G | IDC区,由cloud-node1复制 |
10.122.4.49 | cloud-node7 | woker | 500G | IDC区,由cloud-node1复制 |
10.122.4.50 | cloud-node8 | woker | 500G | IDC区,由cloud-node1复制 |
-
Rancher 集群的安装
-
环境配置 基础环境配置
- 节点机器配置见上
- 主机名配置
sudo hostnamectl --static set-hostname cloud-node1
-
配置cloud-node1至其他节点的免密登陆(在节点cloud-node1)
ssh-keygen -t rsa #一路enter,采用默认值 ssh-copy-id -i ~/.ssh/id_rsa.pub appuser@cloud-node2 #yes,输入密码; 其他节点同
-
Host配置
sudo vi /etc/hosts 10.122.6.30 cloud-node1 10.122.4.44 cloud-node2 10.122.4.45 cloud-node3 10.122.4.46 cloud-node4 10.122.4.47 cloud-node5 10.122.4.48 cloud-node6 10.122.4.49 cloud-node7 10.122.4.50 cloud-node8
- 关闭selinux【克隆前已完成】
sudo sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
- 关闭防火墙【克隆前已完成】
sudo systemctl stop firewalld.service && systemctl disable firewalld.service
- 配置主机时间、时区、系统语言【由于是克隆的,本步骤跳过】
-
Kernel性能调优【克隆前已完成】
sudo cat >> /etc/sysctl.conf<<EOF net.ipv4.ip_forward=1 net.bridge.bridge-nf-call-iptables=1 net.ipv4.neigh.default.gc_thresh1=4096 net.ipv4.neigh.default.gc_thresh2=6144 net.ipv4.neigh.default.gc_thresh3=8192 EOF
数值根据实际环境自行配置,最后执行
sudo sysctl -p
保存配置。 -
加载内核
sudo cat >modules.sh <<EOF modprobe br_netfilter modprobe ip6_udp_tunnel modprobe ip_set modprobe ip_set_hash_ip modprobe ip_set_hash_net modprobe iptable_filter modprobe iptable_nat modprobe iptable_mangle modprobe iptable_raw modprobe nf_conntrack_netlink modprobe nf_conntrack modprobe nf_conntrack_ipv4 modprobe nf_defrag_ipv4 modprobe nf_nat modprobe nf_nat_ipv4 modprobe nf_nat_masquerade_ipv4 modprobe nfnetlink modprobe udp_tunnel #modprobe VETH #modprobe VXLAN modprobe x_tables modprobe xt_addrtype modprobe xt_conntrack modprobe xt_comment modprobe xt_mark modprobe xt_multiport modprobe xt_nat modprobe xt_recent modprobe xt_set modprobe xt_statistic modprobe xt_tcpudp EOF sudo sh modules.sh
-
Java && Docker 安装【克隆前已完成】
tar -zxvf jdk-8u221-linux-x64.tar.gz cd jdk1.8.0_221/ sudo mv jdk1.8.0_221/ /opt/ sudo alternatives --install /usr/bin/java java /opt/jdk1.8.0_221/bin/java 3 sudo alternatives --config java (3) java -version sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo sudo yum install -y docker-ce-18.06.3.ce-3.el7 usermod -aG docker appuser #将appuser添加到组docker systemctl start docker & systemctl enable docker
-
HA 离线安装离线HA安装
-
负载均衡器配置
在cloud-node1节点上运行 vi nginx.conf worker_processes 4; worker_rlimit_nofile 40000; events { worker_connections 8192; } stream { upstream rancher_servers_http { least_conn; server 10.122.4.44:80 max_fails=3 fail_timeout=5s; server 10.122.4.45:80 max_fails=3 fail_timeout=5s; server 10.122.4.46:80 max_fails=3 fail_timeout=5s; } server { listen 80; proxy_pass rancher_servers_http; } upstream rancher_servers_https { least_conn; server 10.122.4.44:443 max_fails=3 fail_timeout=5s; server 10.122.4.45:443 max_fails=3 fail_timeout=5s; server 10.122.4.46:443 max_fails=3 fail_timeout=5s; } server { listen 443; proxy_pass rancher_servers_https; } } 在自己的虚拟机中下载好nginx:1.14的image,导出后上传到cloud-node1并导入 在虚拟中下载`docker pull nginx:1.14 ` 下载后导出 docker save -o nginx_1.14 nginx:1.14 将文件上传至cloud-node1中,并执行 docker load --input nginx_1.14 docker run -d --restart=unless-stopped -p 80:80 -p 443:443 -v /home/appuser/installs/nginx.conf:/etc/nginx/nginx.conf nginx:1.14
-
安装准备
-
RKE安装
创建目录mkdir -p /opt/rancher/cli && cd /opt/rancher/cli
。 下载并发传v0.2.7-rke_linux-amd64至该目录下mv v0.2.7-rke_linux-amd64 rke chmod +x rke sudo mv rke /opt/rancher/cli echo "export PATH=/opt/rancher/cli:\$PATH" >> /etc/profile source /etc/profile rke --version
- 创建RKE配置文件
vi rancher-cluster.yml
- 创建K8S集群
rke up --config ./rancher-cluster.yml
因ssh免密配置使用的域名,而rancher-cluster.yml使用的是ip无法通过。 故重新执行:
ssh-copy-id -i ~/.ssh/id_rsa.pub appuser@10.122.44
#其他机器同 -
-
-

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
微服务开源生态报告 No.8
「微服务开源生态报告」,汇集各个开源项目近期的社区动态,帮助开发者们更高效的了解到各开源项目的最新进展。 社区动态包括,但不限于:版本发布、人员动态、项目动态和规划、培训和活动。 非常欢迎国内其他微服务领域的开源项目将近期的社区动态,投递给我们,我们将一同发布。 第一期回顾,点击这里。 第二期回顾,点击这里。 第三期回顾,点击这里。 第四期回顾,点击这里。 第五期回顾,点击这里。 第六期回顾,点击这里。 第七期回顾,点击这里。 以下是第八期「微服务开源生态报告」的内容。 01 Apache Dubbo 项目动态和规划 8月17日上海 Dubbo 开发者日持续报名中,报名链接,点击这里。 Dubbo Spring Cloud 随 Spring Cloud Alibaba 正式发布,主要的特性是支持 Dubbo和 Spring Cloud 服务之间的互通,这
- 下一篇
Java中的Volatile关键字
Java的volatile关键字用于标记一个Java变量为“在主存中存储”。更确切的说,对volatile变量的读取会从计算机的主存中读取,而不是从CPU缓存中读取,对volatile变量的写入会写入到主存中,而不只是写入到CPU缓存。 实际上,从Java5开始,volatile关键字不只是保证了volatile变量在主存中写入和读取,我回在后面的部分做相关的解释。 变量可见性问题 Java的volatile关键字保证了多个线程对变量值变化的可见性。这听起来有点抽象,让我来详细解释。 在一个多线程的程序中,当多个线程操作非volatile变量时,出于性能原因,每个线程会从主存中拷贝一份变量副本到一个CPU缓存中。如果你的计算机有多于一个CPU,每个线程可能会在不同的CPU中运行。这意味着每个简称拷贝变量到不同CPU的缓存中,如下图: 对于非volatile变量,并没有保证何时JVM从主存中读取数据到CPU缓存,或者从CPU缓存中写出数据到主存。这会导致一些问题。 想象一种情况,多于一个线程访问一个共享对象,这个共享对象包含一个计数变量如下声明: public class ShareOb...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Linux系统CentOS6、CentOS7手动修改IP地址
- CentOS关闭SELinux安全模块
- CentOS8安装Docker,最新的服务器搭配容器使用
- SpringBoot2编写第一个Controller,响应你的http请求并返回结果
- Hadoop3单机部署,实现最简伪集群
- SpringBoot2初体验,简单认识spring boot2并且搭建基础工程
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- Windows10,CentOS7,CentOS8安装Nodejs环境
- 设置Eclipse缩进为4个空格,增强代码规范