PostgreSQL-11.3-主从流复制+手动主备切换
1 摘要
使用PostgreSQL 11.3 创建两个节点:node1 和 node2; 配置主从流复制,然后做手动切换(failover)。为了配置过程简单,两个节点在同一台物理机器上。
首先建立主从同步流复制,起初,node1作为主节点(Primary),node2作为从节点(Standby)。
接下来,模拟主节点(node1)无法工作,把从节点(node2)手动切换成主节点。然后把原来的主节点(node1)作为从节点加入系统。 此时,node2是主 (Primary), node1是从(Standby)。
最后,模拟主节点(node2)无法工作,把从节点(node1)手动切换成主节点。然后把node2作为从节点加入系统。 此时,node1是主 (Primary), node2是从(Standby)。
2 创建node1和node2,配置主从流复制
上级目录是:
/Users/tom
两个子目录,testdb113,testdb113b, 分别属于两个节点, node1, node2:
testdb113 --> node1 testdb113b --> node2
2.1 创建主节点(Primary) node1
mkdir testdb113 initdb -D ./testdb113 pg_ctl -D ./testdb113 start
2.1.1 node1: 创建数据库账号,用于流复制
- 创建账号 'replicauser',该账号存在于node1和node2 。
CREATE ROLE replicauser WITH REPLICATION LOGIN ENCRYPTED PASSWORD 'abcdtest';
2.1.2 node1: 创建归档目录
mkdir ./testdb113/archive
2.1.3 node1: 在配置文件中(postgresql.conf)设定参数
#for the primary wal_level = replica synchronous_commit = remote_apply archive_mode = on archive_command = 'cp %p /Users/tom/testdb113/archive/%f' max_wal_senders = 10 wal_keep_segments = 10 synchronous_standby_names = 'pgslave001' #for the standby hot_standby = on
2.1.4 node1: 编辑文件pg_hba.conf,设置合法地址:
- add following to then end of pg_hba.conf
host replication replicauser 127.0.0.1/32 md5 host replication replicauser ::1/128 md5
2.1.5 node1: 预先编辑文件:recovery.done
- 注意: 该文件后来才会用到。当node1成为从节点时候,需要把recovery.done重命名为recovery.conf
standby_mode = 'on' recovery_target_timeline = 'latest' primary_conninfo = 'host=localhost port=6432 user=replicauser password=abcdtest application_name=pgslave001' restore_command = 'cp /Users/tom/testdb113b/archive/%f %p' trigger_file = '/tmp/postgresql.trigger.5432'
2.2 创建和配置从节点(node2)
mkdir testdb113b pg_basebackup -D ./testdb113b chmod -R 700 ./testdb113b
2.2.1 node2: 编辑文件postgresql.conf,设定参数
- 这个文件来自node1(由于使用了pg_basebackup),只需要更改其中的个别参数。
#for the primary port = 6432 wal_level = replica synchronous_commit = remote_apply archive_mode = on archive_command = 'cp %p /Users/tom/testdb113b/archive/%f' max_wal_senders = 2 wal_keep_segments = 10 synchronous_standby_names = 'pgslave001' #for the standby hot_standby = on
2.2.2 node2: 建立归档目录
- 确保归档目录存在
mkdir ./testdb113b/archive
2.2.3 node2: 检查/编辑文件pg_hba.conf
- 这个文件来自node1,不需要编辑
2.2.4 node2: 创建/编辑文件recovery.conf
- PG启动时,如果文件recovery.conf存在,则工作在recovery模式,当作从节点。如果当前节点升级成主节点,文件recovery.conf将会被重命名为recovery.done。
standby_mode = 'on' recovery_target_timeline = 'latest' primary_conninfo = 'host=localhost port=5432 user=replicauser password=abcdtest application_name=pgslave001' restore_command = 'cp /Users/tom/testdb113/archive/%f %p' trigger_file = '/tmp/postgresql.trigger.6432'
2.3 简单测试
2.3.1 重新启动主节点(node1):
pg_ctl -D ./testdb113 restart
2.3.2 启动从节点(node2)
pg_ctl -D ./testdb113b start
2.3.3 在node1上做数据更改
- node1支持数据的写和读
psql -d postgres
postgres=# create table test ( id int, name varchar(100)); CREATE TABLE postgres=# insert into test values(1,'1'); INSERT 0 1
2.3.4 节点node2读数据
- node2是从节点(Standby),只能读,不能写。
psql -d postgres -p 6432
postgres=# select * from test; id | name ----+------ 1 | 1 (1 row) postgres=# insert into test values(1,'1'); ERROR: cannot execute INSERT in a read-only transaction postgres=#
3 模拟主节点node1不能工作时,把从节点node2提升到主节点
3.1 停止主节node1
- node1停止后,只有node2工作,仅仅支持数据读。
pg_ctl -D ./testdb113 stop
3.1.1 尝试连接到节点node1时失败
- 因为node1停止了。
Ruis-MacBook-Air:tom$ psql -d postgres psql: could not connect to server: No such file or directory Is the server running locally and accepting connections on Unix domain socket "/tmp/.s.PGSQL.5432"?
3.1.2 尝试连接到node2,成功;插入数据到node2,失败
- node2在工作,但是只读
Ruis-MacBook-Air:~ tom$ psql -d postgres -p 6432 psql (11.3) Type "help" for help. postgres=# insert into test values(1,'1'); ERROR: cannot execute INSERT in a read-only transaction postgres=#
3.2 node2: 把node2提升到主
- 提升后,node2成为了主(Primary),既能读,也能写。
touch /tmp/postgresql.trigger.6432
3.3 node2: 插入数据到node2,阻塞等待
- node2是主节点(Primary),能够成功插入数据。但是由于设置了同步流复制,node2必须等待某个从节点把数据更改应用到从节点,然后返回相应的LSN到主节点。
postgres=# insert into test values(2,'2');
3.4 node1: 创建文件recovery.conf
- 使用之前建立的文件recovery.done作为模版,快速创建recovery.conf。
mv recovery.done recovery.conf
3.5 node1: 启动node1,作为从节点(Standby)
- 启动后,系统中又有两个节点:node2是主,node1是从。
pg_ctl -D ./testdb113 start
3.6 插入数据到node2(见3.3)成功返回
- 由于节点node1作为从节点加入系统,应用主节点的数据更改,然后返回相应WAL的LSN到主节点,使主节点等到了回应,从而事务处理得以继续。
postgres=# insert into test values(2,'2'); INSERT 0 1 postgres=#
3.7 分别在node1和node2读取数据
- 由于两个节点都只是数据读,而且流复制正常工作,所有读取到相同的结果
postgres=# select * from test; id | name ----+------ 1 | 1 2 | 2 (2 rows)
4 模拟node2无法工作时,提升node1成为主(Primary)
4.1 停止node2
pg_ctl -D ./testdb113b stop
4.1.1 尝试访问node2,失败
- 因为node2已经停止了.
Ruis-MacBook-Air:~ tom$ psql -d postgres -p 6432 psql: could not connect to server: No such file or directory Is the server running locally and accepting connections on Unix domain socket "/tmp/.s.PGSQL.5432"?
4.1.2 node1: 连接到node1,成功;插入数据到node1,失败
- node1只读
Ruis-MacBook-Air:~ tom$ psql -d postgres psql (11.3) Type "help" for help. postgres=# insert into test values(3,'3'); ERROR: cannot execute INSERT in a read-only transaction postgres=#
4.2 node1: 提升node1,成为主(Primary)
touch /tmp/postgresql.trigger.5432
4.3 node1: 插入数据到node1,阻塞等待
- node1成功插入数据,但是要等待从节点的 remote-apply.
postgres=# insert into test values(3,'3');
4.4 node2: 创建文件recovery.conf
mv recovery.done recovery.conf
4.5 node2: 启动node2,作为从节点(Standby)
pg_ctl -D ./testdb113b start
4.6 node1: 插入数据(见4.3)成功返回。
postgres=# insert into test values(3,'3'); INSERT 0 1
4.7 分别在node1和node2读取数据
- 由于两个节点都只是数据读,而且流复制正常工作,所有读取到相同的结果
postgres=# select * from test; id | name ----+------ 1 | 1 2 | 2 3 | 3 (3 rows)
5 自动化解决方案
当主节点不能工作时,需要把一个从节点提升成为主节点。 如果是手工方式提升,可以使用trigger文件,也可以使用命令'pg_ctl promote' 。
目前也有很多种自动化监控和切换的方案,在网上都能搜索到。或者,可以自己动手写一个自动化监控和切换的方案。
低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
刚哥谈架构 (三)软件架构的道与术
秦孝公在位期间致力于恢复秦国的霸业,他因此颁布著名的求贤令,商鞅3次游说秦孝公,第一次讲的是尧、舜、禹、汤的帝道。上古时期,百姓安居乐业。秦孝公听着听着睡着了。商鞅离开之后,秦孝公向景监发火,说商鞅自大。景监把这个反馈给商鞅,商鞅没有气馁,请求再给他一次机会。5天后景监给他安排第二次朝见。这一次商鞅讲的是周文王、周武王的王道,讲的是礼治天下。秦孝公有点兴趣,觉得商鞅可以一起谈论,但没有打算重用商鞅。景监把秦孝公的意思回复给商鞅后,商鞅说:"我已经知道怎么游说他了,请再给我一次机会"。第三次商鞅讲的是春秋五霸的霸道。秦孝公这次听得津津有味,并几天几夜促膝长谈,不断向商鞅请教,并重用商鞅,才有了后来的商鞅变法,秦国一统天下。 在软件和编程领域有很多书冠之以‘某某之道’,‘某某之美’,‘某某之禅’。软件领域也有自己的一套哲学思想。我今天想聊一聊我对软件架构的哲学思考。这是一个超大的命题,即使我在软件领域摸爬滚打了这么多年,也不敢说我已经窥其一二,今日胡说一通,希望得到大家的指正。 ‘道’ 暨道路或者方向,是自然规律,是原则和目的,道路和方向是错的,无论你怎么努力,都很难成功。 ‘术’ 是方法...
- 下一篇
Zookeeper实现之Zab协议详解(二)
今天讲解的主题是Zookeeper实现的基础协议--Zab协议(Zookeeper Atomic Broadcast),也称为zk原子广播协议。 首先大家可能会有疑问,Zab和我们上一篇讲解的Paxos之间有什么区别和联系别着急,带着这个问题接着往下看吧,后面我会揭晓这个问题的答案的。 一、Zookeeper简介 Zookeeper是一个分布式数据一致性的解决方案,分布式应用可以基于它实现诸如数据发布/订阅,负载均衡,命名服务,分布式协调/通知,集群管理,Master选举,分布式锁和分布式队列等功能。Zookeeper致力于提供一个高性能、高可用、且具有严格的顺序访问控制能力的分布式协调系统。 考虑到Zookeeper主要操作数据的状态,为了保证状态的一致性,Zookeeper提出了两个安全属性: 全序(Total order):如果消息a在消息b之前发送,则所有Server应该看到相同的结果; 因果顺序(Causal order):如果消息a在消息b之前发生(a导致了b),并被一起发送,则a始终在b之前被执行; 为了保证上述两个安全属性,Zookeeper使用了TCP协议和Leade...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Eclipse初始化配置,告别卡顿、闪退、编译时间过长
- Red5直播服务器,属于Java语言的直播服务器
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池
- Docker安装Oracle12C,快速搭建Oracle学习环境
- CentOS6,CentOS7官方镜像安装Oracle11G
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- CentOS关闭SELinux安全模块
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Windows10,CentOS7,CentOS8安装MongoDB4.0.16