当前位置: 代码网 > 服务器>服务器>Linux > pgpool-II搭建集群,实现高可用与读写分离

pgpool-II搭建集群,实现高可用与读写分离

2025年04月20日 Linux 我要评论
pgpool-ii简介https://www.pgpool.net/docs/45/en/html/ 官方文档地址pgpool-ii架构图pgpool-ii进程简介pcp进程:pcp是一个命令行的管理

pgpool-ii简介

https://www.pgpool.net/docs/45/en/html/ 官方文档地址

pgpool-ii架构图

pgpool-ii实现对业务透明的高可用与读写分离_pgpool-ii

pgpool-ii进程简介

  1. pcp进程:pcp是一个命令行的管理工具,用户可以使用此管理工具向pgpool-ii发送管 理命令。 
  2. pgpool-ii父进程:pgpool-ii父进程负责检查各个底层数据库的健康状态。 
  3. pgpool-ii子进程:负责接收用户发过来的sql请求,然后再根据规则将sql请求发送 到底层的数据库上。 
  4. worker进程:pgpool-ii 3.x版本之后才增加的进程,负责检查底层数据库之间的复制 延迟。 
  5. watchdog进程:可以把多个pgpool-ii组成一个高可用集群,解决pgpool-ii自身的高可用问题,提供了vip的管理功能。 

看门狗进程详细介绍

pgpool-ii在3.2版本之后把健康检查的功能从pgpool-ii父进程中剥离出来,放到了一个 叫“看门狗”(watchdog)的模块中,该模块添加的功能如下。

  1. pgpool服务是否正常工作的检测:看门狗模块监控pgpool服务的响应是否正常,而不 是简单监控进程是否存活。它通过向被它监控的pgpool发送查询,并检查响应情况来判断 pgpool是否正常工作。看门狗进程还监控从pgpool到前端服务器的连接(如应用服务器) 。从pgpool到前端服务器的连接作为pgpool的服务来监控。 
  2. 看门狗进程相互监控:看门狗进程交换被监控服务器的信息用来保证信息是最新的 ,并允许看门狗进程相互监控。 ·在某些故障检测中交换各自pgpool的主/备状态:当一个pgpool的故障被检测到,看门狗进程会把故障信息通知到其他的看门狗进程,同时看门狗进程会通过投票来确定哪一 个pgpool是主pgpool,哪一个是备pgpool。 
  3. 在pgpool进行主备切换的时候自动进行虚拟ip地址的漂移:当一个备用pgpool服务器 提升为主pgpool时,相应的虚拟ip也会漂移过来。这样应用程序不需要修改配置就可以连 接到新的主pgpool上。 
  4. 当原先发生故障的pgpool服务器恢复时,会自动注册为为备用pgpool服务器:当发生 故障的服务器恢复后,或原服务器彻底损坏通过增加新的服务器来替换原先的服务器时, 新的服务器连接上来后,新服务器上的看门狗进程通知其他的看门狗进程,新的备pgpool 服务器加进来了,让整个环境恢复成高可用状态。

pgpool-ii的工作模式

pgpool-ii有连接池、复制、负载均衡等功能,使用这些功能需要把pgpool-ii配置在不同的工作模式下,pgpool-ii有以下几种工作模式。

  1. 原始模式:只实现一个故障切换的功能,可以配置多个后端数据库,当第一个后端 数据库不能工作时,pgpool-ii会切换到第二个后端数据库,如果第二个后端数据库也不能 工作,再切换到第三个后端数据库,依次类推。 
  2. 内置复制(native replication)的模式:实际上就是把修改数据库的操作同时发送到 后端所有的数据库上进行处理,只读查询发送给任意一台数据库。此模式下可以实现负载 均衡的功能。 
  3. 主/备模式:此模式下,使用其他软件(非pgpool自身)完成实际的数据复制,如使 用slony-i或流复制,中间件层使用pgpool-ii。此时,pgpool-ii主要提供高可用和连接池的 功能。在主/备模式中,ddl和dml操作在主节点上执行,select语句可以在主备节点 上执行,当然也可以强制select语句在主节点上执行,但需要在select语句前添加“/* no load balance*/”注释。

pgpool-ii 3.0版本之后支持配合使用流复制+standby的主/备模式,这基本是现在的主流模式。所以此文我们是基于这种模式部署的。操作步骤很多,请注意哪些是在所有节点执行,哪些是只在主节点执行

1.环境规划

1.1 节点信息

主机

hostname

节点配置

角色

组件

vip

10.0.0.41

postgres-01

centos7.9 4c/8gb

leader

postgresql 15.5、pgpool-ii-4.5.6

10.0.0.44

10.0.0.42

postgres-02

centos7.9 4c/8gb

standby1

postgresql 15.5、pgpool-ii-4.5.6

10.0.0.43

postgres-03

centos7.9 4c/8gb

standby2

postgresql 15.5、pgpool-ii-4.5.6

 

1.2postgresql版本和配置

item

value

detail

postgresql version

15.5

-

port

5432

-

$pgdata

/data/pgsql/data

-

archive mode

on

/data/pgsql/archive

replication slots

enabled

async/sync replication

async

-

 

1.3 pgpool-ii版本与配置

item

value

detail

pgpool-ii version

4.4.5

-

port

9999

pgpool-ii接收连接

9898

pcp 进程接收连接

9000

看门狗接收连接

9694

udp port接收看门狗心跳信号

config file

/usr/local/pgpool/etc/pgpool.conf

-

user running pgpool-ii

postgres (pgpool-ii 4.1 or later)

pgpool-ii 4.0 or before, the default user running pgpool-ii is root

running mode

streaming replication mode

-

watchdog

on

life check method: heartbeat

 

1.4 相关脚本

模块

脚本名

说明

failover

failover.sh

用于启动failover

follow_primary.sh

failover之后从节点与新主节点的同步

online recovery

recovery_1st_stage

用于恢复从节点的数据

pgpool_remote_start

用于启动从节点

watchdog

escalation.sh

用于安全的切换主从

 

2.系统准备

注意:以下操作在所有节点进行

2.1 安装依赖

yum install -y yum-utils openjade docbook-dtds docbook-style-dsssl docbook-style-xsl
yum install -y cmake make gcc zlib gcc-c++ perl readline readline-devel zlib 
yum install -y yum-builddep flex libselinux-devel libxml2-devel libxslt-devel openssl-devel pam-devel readline-devel libcurl-devel json-c-devel

2.2 配置域名解析

#所有节点
cat >> /etc/hosts << eof
10.0.0.41 postgres-01
10.0.0.42 postgres-02
10.0.0.43 postgres-03
eof

2.3 创建用户与目录

#所有节点
groupadd -g 701 postgres
useradd -g 701 -u 701 -s /bin/bash -m postgres
passwd postgres

mkdir /data/pgsql/{data,log,archive} -p
mkdir /data/pgpool/log -p
chown -r postgres.postgres /data

# pgpool-ii运行的进程通常是在后台运行,没有关联的终端,所以如果不做处理,在执行 if_up_cmd、if_down_cmd 和 arping_cmd 这些带有 sudo 的命令时就会失败
visudo
defaults:postgres !requiretty
postgres all=(all) nopasswd: /sbin/ip,/usr/sbin/arping

2.4 配置互信

#所有节点都要与其它节点互信,需要特殊配置私钥文件得名称为id_rsa_pgpool,因为pgpool的很多配置文件里面的变量都已经写好了这个名字

(1)生成公钥
su - postgres
mkdir /home/postgres/.ssh
cd /home/postgres/.ssh
ssh-keygen -t rsa -f id_rsa_pgpool
s

(2)将公钥分发到所有节点
for i in {1..3};do ssh-copy-id -i id_rsa_pgpool.pub postgres@postgres-0$i;done
(3)修改权限
chmod 600 ~/.ssh/* 
chmod 644 ~/.ssh/*.pub 
chmod 700 ~/.ssh

(4)互信验证
for i in {1..3};do ssh postgres@postgres-0$i -i id_rsa_pgpool hostname;done
for i in {1..3};do ssh postgres@postgres-0$i -i id_rsa_pgpool.pub hostname;done

pgpool-ii实现对业务透明的高可用与读写分离_pgpool-ii_02

2.5 系统优化

> /etc/sysctl.conf 
cat >> /etc/sysctl.conf << eof
vm.swappiness = 0
vm.overcommit_memory=2
vm.overcommit_ratio=90 
vm.dirty_background_ratio = 10   
vm.dirty_ratio = 20
#测试环境物理内存8g,数据节点shared_buffer=2g,最大连接数500为例,进行如下设置
#        semmsl semmns semopm semmni
kernel.sem=300  60000  100    200
vm.nr_hugepages=1500                 
eof
sysctl -p

echo "never" > /sys/kernel/mm/transparent_hugepage/enabled
echo "never" > /sys/kernel/mm/transparent_hugepage/defrag

chmod +x /etc/rc.d/rc.local


cat >> /etc/rc.local << eof
#修改为数据库系统盘符
blockdev --setra 4096 /dev/sdc
echo deadline > /sys/block/sdc/queue/scheduler
if test -f /sys/kernel/mm/transparent_hugepage/enabled; then
echo never > /sys/kernel/mm/transparent_hugepage/enabled
fi
if test -f /sys/kernel/mm/transparent_hugepage/defrag; then
echo never > /sys/kernel/mm/transparent_hugepage/defrag
fi
eof

cat /sys/kernel/mm/transparent_hugepage/enabled
cat /sys/kernel/mm/transparent_hugepage/defrag

> /etc/security/limits.conf
cat >> /etc/security/limits.conf << eof
* soft nofile 65536
* hard nofile 65536
* soft nproc 131072
* hard nproc 131072
* soft memlock -1
* hard memlock -1
eof

systemctl stop firewalld
systemctl disable firewalld

setenforce 0
sed -i 's/selinux=.*/selinux=disabled/g' /etc/selinux/config

3.软件安装

注意:以下操作在所有节点进行

3.1 安装postgresql

#所有节点
(1)编译安装
cd /opt
wget https://ftp.postgresql.org/pub/source/v15.5/postgresql-15.5.tar.gz
tar xf postgresql-15.5.tar.gz
cd postgresql-15.5
./configure --prefix=/usr/local/postgresql-15.5 --with-perl --with-python
make && make install

(2)创建软连接,方便日后升级
ln -sf /usr/local/postgresql-15.5 /usr/local/pgsql

(3)安装contrib目录下的工具
cd contrib/
make && make install

(4)加入环境变量
[root@postgres-01 contrib]# vi /etc/profile
export path=/usr/local/pgsql/bin:$path 
export ld_library_path=/usr/local/pgsql/lib:$ld_library_path
export pgdata=/data/pgsql/data
export pghost=/tmp
[root@postgres-01 contrib]# source /etc/profile
(5)验证安装
[root@postgres-01 contrib]# psql -v
psql (postgresql) 15.5

3.2 安装pgpool

cd /opt
wget https://www.pgpool.net/mediawiki/download.php"export path=/usr/local/pgpool/bin/:$path">> /etc/profile
[postgres@postgres-01 pgpool-ii-4.5.6]$ source /etc/profile

# 安装pgpool_recovery
cd ./src/sql/pgpool-recovery/
make && make install

4.数据库主节点配置

注意:以下操作只在主节点进行

4.1 初始化主节点

[root@postgres-01 ~]# su - postgres
[postgres@postgres-01 ~]$ initdb -d $pgdata

4.2 编辑配置文件

[postgres@postgres-01 ~]$ cd $pgdata
> postgresql.conf 
cat >> postgresql.conf << eof
############# connection #############
listen_addresses = '*'    
port = 5432   
max_connections = 500   
superuser_reserved_connections = 3
############# buffer #############
shared_buffers = 2gb
temp_buffers = 8mb
work_mem = 4mb
huge_pages = on
############# log #############
logging_collector = on
log_min_messages = warning
log_statement = ddl
log_directory = '/data/pgsql/log'
log_filename = 'postgresql-%y-%m-%d.log' 
log_truncate_on_rotation = off 
log_rotation_age = 1d
log_rotation_size = 0
############# wal #############
wal_level = replica
wal_compression = on
max_wal_senders = 10
wal_log_hints = on
fsync = on
archive_mode = on
archive_command = 'cp "%p" "/data/pgsql/archive"'
############# vacuum #############
autovacuum = on
autovacuum_max_workers = 10
############ 流复制 ##############
hot_standby=on
hot_standby_feedback=on
max_replication_slots = 10
eof

4.3 启动主节点

[postgres@postgres-01 data]$ pg_ctl start -d $pgdata

# 安装pgpool_recovery扩展
# 如果一个节点损坏,要在线把失败的节点再加回集群,需要使用到函数"pgpool_recovery"、"pgpool_remote_start"、"pgpool_switch_xlog"。另外,附带工具pgpooladmin控制pgpoolii启停和重新连接后端的postgresql节点,需要使用函数"pgpool_pgctl"。这些函数都在pgpool提供的扩展插件pgpool_recovery中
[postgres@postgres-01 ~]$ psql template1
psql (15.5)
type "help" for help.

template1=# create extension pgpool_recovery;

4.4 创建用户

用户名

password

说明

repl

repl@123

postgresql流复制用户

pgpool

pgpool@123

pgpool-ii  ( health_check_user) and ( sr_check_user

postgres

postgres@123

user running online recovery

appuser 

appuser@123

业务用户

 

[postgres@postgres-01 data]$ psql
set password_encryption = md5;

create user pgpool  password 'pgpool@123';
grant pg_monitor to pgpool;

create user repl replication  password 'repl@123';

alter user postgres password 'postgres@123';

create user appuser with password 'appuser@123' login;
create database appdb;
\c appdb
grant usage on schema public to appuser;
grant select, insert, update, delete on all tables in schema public to appuser;
alter default privileges in schema public grant select, insert, update, delete on tables to appuser;

4.5 配置访问控制文件

[postgres@postgres-01 data]$ vim pg_hba.conf 
host    replication     repl            10.0.0.0/24             md5
host    all             pgpool          10.0.0.0/24             md5 
host    all             postgres        10.0.0.0/24             md5
host    all             postgres        127.0.0.1/32            md5
local   all             postgres                                md5
host    appdb           appuser         10.0.0.0/24             md5

# 重新加载配置
[postgres@postgres-01 data]$ psql
postgres=# select pg_reload_conf();

5.pgpool配置

5.1 相关脚本配置

(1)所有节点做的操作
[root@postgres-01 ~]# chown -r postgres.postgres /usr/local/pgpool
cd /usr/local/pgpool/etc
cp pool_hba.conf.sample pool_hba.conf
cp pcp.conf.sample pcp.conf
cp pgpool.conf.sample pgpool.conf
cp follow_primary.sh.sample follow_primary.sh
cp failover.sh.sample failover.sh
cp escalation.sh.sample escalation.sh
cp recovery_1st_stage.sample recovery_1st_stage
cp pgpool_remote_start.sample pgpool_remote_start

chmod +x follow_primary.sh
chmod +x failover.sh
chmod +x escalation.sh
chmod +x recovery_1st_stage
chmod +x pgpool_remote_start

mkdir sample
mv *.sample sample

(2)主节点操作
mv recovery_1st_stage /data/pgsql/data
mv pgpool_remote_start /data/pgsql/data

配置failover.sh

注意:以下操作在所有节点进行

在检测到 postgresql 后端节点出现故障时,自动执行一系列操作以实现故障转移,从而保障数据库服务的高可用性

# 所有节点
# 修改failover.sh文件中的如下配置
# pghome=/usr/local/pgsql
cd /usr/local/pgpool/etc
sed -i 's/^pghome=.*/pghome=\/usr\/local\/pgsql/' /usr/local/pgpool/etc/failover.sh

配置follow_primary.sh

注意:以下操作在所有节点进行

# 修改/usr/local/pgpool/etc/follow_primary.sh文件中的如下配置
# pghome=/usr/local/pgsql/
# archivedir=/data/pgsql/archive
# pgpool_path=/usr/local/pgpool/bin
# 95行左右的.pgpass文件路径由/var/lib/pgsql/.pgpass更改为/home/postgres/.pgpass
# failover后,新主节点的连接信息,写入到什么文件,recoveryconf=${node_pgdata}/postgresql.auto.conf
cd /usr/local/pgpool/etc
sed -i 's/^pghome=.*/pghome=\/usr\/local\/pgsql/' follow_primary.sh
sed -i 's/^archivedir=.*/archivedir=\/data\/pgsql\/archive/' follow_primary.sh
sed -i 's/^pgpool_path.*/pgpool_path=\/usr\/local\/pgpool\/bin/' follow_primary.sh
sed -i 's/\/var\/lib\/pgsql/\/home\/postgres/' follow_primary.sh
sed -i 's/myrecovery.conf/postgresql.auto.conf/' follow_primary.sh

配置recovery_1st_stage

注意:以下操作在主节点执行

# 官方原文:出于安全原因,该命令文件必须放置在数据库数据目录中。例如,如果recovery_1st_stage_command = 'sync-command',则pgpool-ii将在$pgdata目录中查找命令脚本,并尝试执行$pgdata/sync-command

# 修改/data/pgsql/data/recovery_1st_stage文件中的如下配置:
# pghome=/usr/local/pgsql
# archivedir=/data/pgsql/archive
# repluser=repl
# 在56行左右的pg_basebackup命令的后面加上-r参数
# 59行左右的.pgpass文件路径由/var/lib/pgsql/.pgpass更改为/home/postgres/.pgpass
cd /usr/local/pgpool/etc
sed -i 's/^pghome=.*/pghome=\/usr\/local\/pgsql/' recovery_1st_stage
sed -i 's/^archivedir=.*/archivedir=\/data\/pgsql\/archive/' recovery_1st_stage
sed -i 's/^repluser=.*/repluser=repl/' recovery_1st_stage
sed -i 's/-x stream/-x stream -r/' recovery_1st_stage
sed -i 's/\/var\/lib\/pgsql/\/home\/postgres/' recovery_1st_stage

配置pgpool_remote_start

注意:以下操作在主节点执行

官方原文:

注意:脚本路径和文件名是硬编码的,$pgdata/pgpool_remote_start在主节点上执行。

# 修改/data/pgsql/data/pgpool_remote_start文件中的如下配置
# pghome=/usr/local/pgsql
cd /usr/local/pgpool/etc
sed -i 's/^pghome=.*/pghome=\/usr\/local\/pgsql/' pgpool_remote_start

配置escalation.sh

注意:以下操作在所有节点进行

主要用于当前 pgpool 节点被选举为 leader 时,执行 vip切换和资源接管

# 修改escalation.sh文件中的如下配置
# pgpools=(10.0.0.41 10.0.0.42 10.0.0.43)
# vip=10.0.0.44
# device=ens33
cd /usr/local/pgpool/etc
sed -i 's/^pgpools.*/pgpools=(10.0.0.41 10.0.0.42 10.0.0.43)/' escalation.sh
sed -i 's/^vip.*/vip=10.0.0.44/' escalation.sh
sed -i 's/^device.*/device=ens33/' escalation.sh

5.2 访问控制文件与密码验证文件

注意:以下操作在所有节点进行

配置pool_hba.conf

用于客户端到pgpool的访问控制

[postgres@postgres-01 etc]$ cd /usr/local/pgpool/etc
[postgres@postgres-01 etc]$ > pool_hba.conf
cat >> pool_hba.conf << eof
host    all         pgpool      10.0.0.0/24           md5        
host    all         pgpool      127.0.0.1/32          md5

host    all         postgres    10.0.0.0/24           md5
host    all         postgres    127.0.0.1/32          md5
local   all         postgres                          md5

host    appdb       appuser     10.0.0.0/24           md5
eof

配置pool_passwd文件

用于客户端到pgpool的用户密码验证

[postgres@postgres-01 etc]$ cd /usr/local/pgpool/etc
pg_md5 -p -m -u postgres pool_passwd
password: (输入密码postgres@123)

pg_md5 -p -m -u pgpool pool_passwd
password: (输入密码pgpool@123)

pg_md5 -p -m -u appuser pool_passwd
password: (输入密码appuser@123)

[postgres@postgres-01 etc]$ cat pool_passwd
postgres:md5dd27d33705155fd675e498384ad3d2ea
pgpool:md52a23dd6e92c7f1d2a42fafbb757ef026
appuser:md5af0df380d022abbae08aeff4d162a25b

配置pcp.conf文件

对 pcp(pgpool-ii command prompt)工具的认证信息进行管理,独立哈希算法(非标准 md5) ,纯 32 位哈希字符串(无md5前缀)

echo 'pgpool:'`pg_md5 pgpool@123` > /usr/local/pgpool/etc/pcp.conf
echo 'postgres:'`pg_md5 postgres@123` >> /usr/local/pgpool/etc/pcp.conf
[postgres@postgres-01 data]$ cat /usr/local/pgpool/etc/pcp.conf
pgpool:a6270f3fee9602c6d2754b7515e85ac3
postgres:c3178349c6ad5ddaecf81e15616be142

配置pgpool_node_id文件

从 pgpool-ii 4.2 开始,所有主机的所有配置参数都相同。如果启用了监视器功能,以消除对哪个主机是哪个主机的干扰,则需要pgpool_node_id文件

[postgres@postgres-01 .ssh]$ echo "0" >> /usr/local/pgpool/etc/pgpool_node_id
[postgres@postgres-02 .ssh]$ echo "1" >> /usr/local/pgpool/etc/pgpool_node_id
[postgres@postgres-03 .ssh]$ echo "2" >> /usr/local/pgpool/etc/pgpool_node_id

配置.pgpass文件

当 pgpool 需要连接后端 postgresql 节点进行(健康检查、故障转移、负载均衡)时,提供用户名和密码

cat >> /home/postgres/.pgpass << eof
10.0.0.41:5432:replication:repl:repl@123
10.0.0.42:5432:replication:repl:repl@123
10.0.0.43:5432:replication:repl:repl@123
10.0.0.41:5432:postgres:postgres:postgres@123
10.0.0.42:5432:postgres:postgres:postgres@123
10.0.0.43:5432:postgres:postgres:postgres@123
eof
chmod 0600 /home/postgres/.pgpass

配置.pcppass 文件

.pcppass 文件可让用户在使用 pcp 工具时无需每次都手动输入用户名和密码,从而实现自动认证。

cat >> /home/postgres/.pcppass << eof
localhost:9898:pgpool:pgpool@123
10.0.0.41:9898:pgpool:pgpool@123
10.0.0.42:9898:pgpool:pgpool@123
10.0.0.43:9898:pgpool:pgpool@123
eof
chmod 600 /home/postgres/.pcppass

5.3 编辑主配置文件

注意:以下操作在所有节点进行

[postgres@postgres-01 ~]$ cd /usr/local/pgpool/etc/
[postgres@postgres-01 etc]$ vim pgpool.conf
###################
### connections ###
###################
listen_addresses = '*'
port = 9999
socket_dir = '/data/pgpool'
pid_file_name = '/data/pgpool/pgpool.pid'
pcp_listen_addresses = '*'
pcp_port = 9898
pcp_socket_dir = '/data/pgpool'
num_init_children = 30

#####################
### backend nodes ###
#####################
backend_clustering_mode = 'streaming_replication'
backend_hostname0 = '10.0.0.41'
backend_port0 = 5432
backend_weight0 = 1
backend_data_directory0 = '/data/pgsql/data'
backend_flag0 = 'allow_to_failover'
backend_application_name0 = 'backend_node01'

backend_hostname1 = '10.0.0.42'
backend_port1 = 5432
backend_weight1 = 1
backend_data_directory1 = '/data/pgsql/data'
backend_flag1 = 'allow_to_failover'
backend_application_name1 = 'backend_node02'

backend_hostname2 = '10.0.0.43'
backend_port2 = 5432
backend_weight2 = 1
backend_data_directory2 = '/data/pgsql/data'
backend_flag2 = 'allow_to_failover'
backend_application_name2 = 'backend_node03'

######################
### authentication ###
######################
enable_pool_hba = on
pool_passwd = '/usr/local/pgpool/etc/pool_passwd'

############
### logs ###
############
logging_collector = on
log_directory = '/data/pgpool/log'
log_filename = 'pgpool-%y-%m-%d.log'
log_file_mode = 0600
log_truncate_on_rotation = on
log_rotation_age = 1d
l

####################
### health check ###
####################
health_check_period = 5
health_check_timeout = 20
health_check_user = 'pgpool'
health_check_password = 'pgpool@123'
health_check_max_retries = 3
sr_check_user = 'pgpool'
sr_check_password = 'pgpool@123'
follow_primary_command = '/usr/local/pgpool/etc/follow_primary.sh %d %h %p %d %m %h %m %p %r %r'

################
### failover ###
################
failover_command = '/usr/local/pgpool/etc/failover.sh %d %h %p %d %m %h %m %p %r %r %n %s'

#######################
### online recovery ###
#######################
recovery_user = 'postgres'
recovery_password = 'postgres@123'
recovery_1st_stage_command = 'recovery_1st_stage'
# 官方原文:只有原生复制模式和快照隔离模式才需要第二阶段。其他模式(包括流复制模式)不会执行第二阶段
recovery_2nd_stage_command = ''

################
### watchdog ###
################
# 注意:如果您有偶数个看门狗节点,则需要打开enable_consensus_with_half_votes参数。
use_watchdog = on
wd_ipc_socket_dir = '/data/pgpool'

hostname0 = '10.0.0.41'
wd_port0 = 9000
pgpool_port0 = 9999

hostname1 = '10.0.0.42'
wd_port1 = 9000
pgpool_port1 = 9999

hostname2 = '10.0.0.43'
wd_port2 = 9000
pgpool_port2 = 9999

###################
### vip setting ###
delegate_ip = '10.0.0.44'
# "$_ip_$" 在硬编码中代表delegate_ip的值
if_up_cmd = '/usr/bin/sudo /sbin/ip addr add $_ip_$/24 dev ens33 label ens33:vip'
if_down_cmd = '/usr/bin/sudo /sbin/ip addr del $_ip_$/24 dev ens33'
arping_cmd = '/usr/bin/sudo /usr/sbin/arping -u $_ip_$ -w 1 -i ens33'

##########################
### escalation setting ###
##########################
wd_escalation_command = '/usr/local/pgpool/etc/escalation.sh'
wd_heartbeat_keepalive = 2
wd_heartbeat_deadtime = 10

#########################
### lifecheck setting ###
#########################
wd_lifecheck_method = 'heartbeat'
heartbeat_hostname0 = '10.0.0.41'
heartbeat_port0 = 9694
heartbeat_device0 = 'ens33'

heartbeat_hostname1 = '10.0.0.42'
heartbeat_port1 = 9694
heartbeat_device1 = 'ens33'

heartbeat_hostname2 = '10.0.0.43'
heartbeat_port2 = 9694
heartbeat_device2 = 'ens33'

6. 集群启动

6.1 启动pgpool

# 所有节点启动
# 注意第一个启动的pgpool并不会直接挂载vip,要在第二个pgpool启动之后才会选举出leader,在leader上挂载vip
pgpool -f /usr/local/pgpool/etc/pgpool.conf -d

# 启动完之后会在主节点的日志中出现以下内容,证明成功的将 vip 添加到网络接口
2025-04-17 16:45:44.385: watchdog_utility pid 1676: log:  watchdog escalation successful
2025-04-17 16:45:48.419: watchdog_utility pid 1676: log:  successfully acquired the delegate ip:"10.0.0.44"
2025-04-17 16:45:48.419: watchdog_utility pid 1676: detail:  'if_up_cmd' returned with success

pgpool-ii实现对业务透明的高可用与读写分离_高可用_03

6.2 启动后端数据库从节点

会在主节点触发recovery_1st_stage、pgpool_remote_start两个脚本,从主节点克隆数据,并直接启动从节点

[postgres@postgres-02 ~]$ pcp_recovery_node -h 10.0.0.41 -p 9898 -u pgpool --node-id=1 -v -w
pcp_recovery_node -- command successful

[postgres@postgres-03 etc]$ pcp_recovery_node -h 10.0.0.41 -p 9898 -u pgpool --node-id=2 -v -w
pcp_recovery_node -- command successful

6.3 查看集群状态

使用vip连接pgpool 9999端口,查看后端数据库

[postgres@postgres-01 etc]$ pgpassword="postgres@123" psql -h10.0.0.44 -p 9999
psql (15.5)
type "help" for help.

postgres=# select inet_server_addr() as backend_host,inet_server_port() as backend_port,current_database(),current_user;

pgpool-ii实现对业务透明的高可用与读写分离_数据库_04

查看流复制

postgres=# select usename,client_addr,sync_state from pg_stat_replication;

pgpool-ii实现对业务透明的高可用与读写分离_数据库_05

查看pool_node节点信息

postgres=# show pool_nodes;

pgpool-ii实现对业务透明的高可用与读写分离_数据库_06

到此这篇关于pgpool-ii搭建集群,实现高可用与读写分离的文章就介绍到这了,更多相关pgpool-ii实现高可用与读写分离内容请搜索代码网以前的文章或继续浏览下面的相关文章希望大家以后多多支持代码网!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com