基本介绍
框架特征
zookeeper 是 apache hadoop 项目子项目,为分布式框架提供协调服务,是一个树形目录服务 zookeeper 是基于观察者模式设计的分布式服务管理框架,负责存储和管理共享数据,接受观察者的注册监控,一旦这些数据的状态发生变化,zookeeper 会通知观察者
- zookeeper 是一个领导者(leader),多个跟随者(follower)组成的集群
- 集群中只要有半数以上节点存活就能正常服务,所以 zookeeper 适合部署奇数台服务器
- 全局数据一致,每个 server 保存一份相同的数据副本,client 无论连接到哪个 server,数据都是一致
- 更新的请求顺序执行,来自同一个 client 的请求按其发送顺序依次执行
- 数据更新原子性,一次数据更新要么成功,要么失败
- 实时性,在一定的时间范围内,client 能读到最新数据
- 心跳检测,会定时向各个服务提供者发送一个请求(实际上建立的是一个 socket 长连接)
参考视频:【尚硅谷】大数据技术之zookeeper 3.5.7版本教程_哔哩哔哩_bilibili
应用场景
zookeeper 提供的主要功能包括:统一命名服务、统一配置管理、统一集群管理、服务器节点动态上下线、软负载均衡、分布式锁等
- 在分布式环境中,经常对应用/服务进行统一命名,便于识别,例如域名相对于 ip 地址更容易被接收
/service/www.baidu.com # 节点路径
192.168.1.1 192.168.1.2 # 节点值
如果在节点中记录每台服务器的访问数,让访问数最少的服务器去处理最新的客户端请求,可以实现负载均衡
192.168.1.1 10 # 次数
192.168.1.1 15
- 配置文件同步可以通过 zookeeper 实现,将配置信息写入某个 znode,其他客户端监视该节点,当节点数据被修改,通知各个客户端服务器
- 集群环境中,需要实时掌握每个集群节点的状态,可以将这些信息放入 znode,通过监控通知的机制实现
- 实现客户端实时观察服务器上下线的变化,通过心跳检测实现
基本操作
安装搭建
安装步骤:
- 安装 jdk
- 拷贝 apache-zookeeper-3.5.7-bin.tar.gz 安装包到 linux 系统下,并解压到指定目录
- conf 目录下的配置文件重命名:
mv zoo_sample.cfg zoo.cfg
- 修改配置文件:
vim zoo.cfg
# 修改内容
datadir=/home/seazean/software/zookeeper-3.5.7/zkdata
- 在对应目录创建 zkdata 文件夹:
mkdir zkdata
zookeeper 中的配置文件 zoo.cfg 中参数含义解读:
- ticktime = 2000:通信心跳时间,zookeeper 服务器与客户端心跳时间,单位毫秒
- initlimit = 10:leader 与 follower 初始通信时限,初始连接时能容忍的最多心跳次数
- synclimit = 5:leader 与 follower 同步通信时限,lf 通信时间超过 synclimit * ticktime,leader 认为 follwer 下线
- datadir:保存 zookeeper 中的数据目录,默认是 tmp目录,容易被 linux 系统定期删除,所以建议修改
- clientport = 2181:客户端连接端口,通常不做修改
操作命令
服务端
linux 命令:
- 启动 zookeeper 服务:./zkserver.sh start
- 查看 zookeeper 服务:./zkserver.sh status
- 停止 zookeeper 服务:./zkserver.sh stop
- 重启 zookeeper 服务:./zkserver.sh restart
- 查看进程是否启动:jps
客户端
linux 命令:
- 连接 zookeeper 服务端:
./zkcli.sh # 直接启动
./zkcli.sh –server ip:port # 指定 host 启动
客户端命令:
- 基础操作:
quit # 停止连接
help # 查看命令帮助
- 创建命令:/ 代表根目录
create /path value # 创建节点,value 可选
create -e /path value # 创建临时节点
create -s /path value # 创建顺序节点
create -es /path value # 创建临时顺序节点,比如node10000012 删除12后也会继续从13开始,只会增加
- 查询命令:
ls /path # 显示指定目录下子节点
ls –s /path # 查询节点详细信息
ls –w /path # 监听子节点数量的变化
stat /path # 查看节点状态
get –s /path # 查询节点详细信息
get –w /path # 监听节点数据的变化
# 属性,分为当前节点的属性和子节点属性
czxid: 节点被创建的事务id, 是zookeeper中所有修改总的次序,每次修改都有唯一的 zxid,谁小谁先发生
ctime: 被创建的时间戳
mzxid: 最后一次被更新的事务id
mtime: 最后修改的时间戳
pzxid: 子节点列表最后一次被更新的事务id
cversion: 子节点的变化号,修改次数
dataversion: 节点的数据变化号,数据的变化次数
aclversion: 节点的访问控制列表变化号
ephemeralowner: 用于临时节点,代表节点拥有者的 session id,如果为持久节点则为0
datalength: 节点存储的数据的长度
numchildren: 当前节点的子节点数量
- 删除命令:
delete /path # 删除节点
deleteall /path # 递归删除节点
数据结构
zookeeper 是一个树形目录服务,类似 unix 的文件系统,每一个节点都被称为 znode,每个 znode 默认存储 1mb 的数据,节点上会保存数据和节点信息,每个 znode 都可以通过其路径唯一标识 节点可以分为四大类:
- persistent:持久化节点
- ephemeral:临时节点,客户端和服务器端断开连接后,创建的节点删除
- persistent_sequential:持久化顺序节点,创建 znode 时设置顺序标识,节点名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护
- ephemeral_sequential:临时顺序节点 注意:在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通过顺序号推断事件的顺序
代码实现
添加 maven 依赖:
<dependency>
<groupid>org.apache.zookeeper</groupid>
<artifactid>zookeeper</artifactid>
<version>3.5.7</version>
</dependency>
实现代码:
public static void main(string[] args) {
// 参数一:连接地址
// 参数二:会话超时时间
// 参数三:监听器
zookeeper zkclient = new zookeeper("192.168.3.128:2181", 20000, new watcher() {
@override
public void process(watchedevent event) {
system.out.println("监听处理函数");
}
});
}
集群介绍
相关概念
zookeepe 集群三个角色:
- leader 领导者:处理客户端事务请求,负责集群内部各服务器的调度
- follower 跟随者:处理客户端非事务请求,转发事务请求给 leader 服务器,参与 leader 选举投票
- observer 观察者:观察集群的最新状态的变化,并将这些状态进行同步;处理非事务性请求,事务性请求会转发给 leader 服务器进行处理;不会参与任何形式的投票。只提供非事务性的服务,通常用于在不影响集群事务处理能力的前提下,提升集群的非事务处理能力(提高集群读的能力,但是也降低了集群选主的复杂程度) 相关属性:
- sid:服务器 id,用来唯一标识一台集群中的机器,和 myid 一致
- zxid:事务 id,用来标识一次服务器状态的变更,在某一时刻集群中每台机器的 zxid 值不一定完全一致,这和 zookeeper 服务器对于客户端更新请求的处理逻辑有关
- epoch:每个 leader 任期的代号,同一轮选举投票过程中的该值是相同的,投完一次票就增加 选举机制:半数机制,超过半数的投票就通过
- 第一次启动选举规则:投票过半数时,服务器 id 大的胜出
- 第二次启动选举规则:
-
- epoch 大的直接胜出
- epoch 相同,事务 id 大的胜出(事务 id 越大,数据越新)
- 事务 id 相同,服务器 id 大的胜出
初次选举
选举过程:
- 服务器 1 启动,发起一次选举,服务器 1 投自己一票,票数不超过半数,选举无法完成,服务器 1 状态保持为 looking
- 服务器 2 启动,再发起一次选举,服务器 1 和 2 分别投自己一票并交换选票信息,此时服务器 1 会发现服务器 2 的 sid 比自己投票推举的(服务器 1)大,更改选票为推举服务器 2。投票结果为服务器 1 票数 0 票,服务器 2 票数 2 票,票数不超过半数,选举无法完成,服务器 1、2 状态保持 looking
- 服务器 3 启动,发起一次选举,此时服务器 1 和 2 都会更改选票为服务器 3,投票结果为服务器 3 票数 3 票,此时服务器 3 的票数已经超过半数,服务器 3 当选 leader,服务器 1、2 更改状态为 following,服务器 3 更改状态为 leading
- 服务器 4 启动,发起一次选举,此时服务器 1、2、3 已经不是 looking 状态,不会更改选票信息,交换选票信息结果后服务器 3 为 3 票,服务器 4 为 1 票,此时服务器 4 更改选票信息为服务器 3,并更改状态为 following
- 服务器 5 启动,同 4 一样
再次选举
zookeeper 集群中的一台服务器出现以下情况之一时,就会开始进入 leader 选举:
- 服务器初始化启动
- 服务器运行期间无法和 leader 保持连接 当一台服务器进入 leader 选举流程时,当前集群可能会处于以下两种状态:
- 集群中本来就已经存在一个 leader,服务器试图去选举 leader 时会被告知当前服务器的 leader 信息,对于该服务器来说,只需要和 leader 服务器建立连接,并进行状态同步即可
- 集群中确实不存在 leader,假设服务器 3 和 5 出现故障,开始进行 leader 选举,sid 为 1、2、4 的机器投票情况
(epoch,zxid,sid): (1, 8, 1), (1, 8, 2), (1, 7, 4)
根据选举规则,服务器 2 胜出
数据写入
写操作就是事务请求,写入请求直接发送给 leader 节点:leader 会先将数据写入自身,同时通知其他 follower 写入,当集群中有半数以上节点写入完成,leader 节点就会响应客户端数据写入完成
写入请求直接发送给 follower 节点:follower 没有写入权限,会将写请求转发给 leader,leader 将数据写入自身,通知其他 follower 写入,当集群中有半数以上节点写入完成,leader 会通知 follower 写入完成,由 follower 响应客户端数据写入完成
底层协议
paxos
paxos 算法:基于消息传递且具有高度容错特性的一致性算法 优点:快速正确的在一个分布式系统中对某个数据值达成一致,并且保证不论发生任何异常,都不会破坏整个系统的一致性 缺陷:在网络复杂的情况下,可能很久无法收敛,甚至陷入活锁的情况
zab
算法介绍
zab 协议借鉴了 paxos 算法,是为 zookeeper 设计的支持崩溃恢复的原子广播协议,基于该协议 zookeeper 设计为只有一台客户端(leader)负责处理外部的写事务请求,然后 leader 将数据同步到其他 follower 节点 zab 协议包括两种基本的模式:消息广播、崩溃恢复
消息广播
zab 协议针对事务请求的处理过程类似于一个两阶段提交过程:广播事务阶段、广播提交操作
- 客户端发起写操作请求,leader 服务器将请求转化为事务 proposal 提案,同时为 proposal 分配一个全局的 id,即 zxid
- leader 服务器为每个 follower 分配一个单独的队列,将广播的 proposal 依次放到队列中去,根据 fifo 策略进行消息发送
- follower 接收到 proposal 后,将其以事务日志的方式写入本地磁盘中,写入成功后向 leader 反馈一个 ack 响应消息
- leader 接收到超过半数以上 follower 的 ack 响应消息后,即认为消息发送成功,可以发送 commit 消息
- leader 向所有 follower 广播 commit 消息,同时自身也会完成事务提交,follower 接收到 commit 后,将上一条事务提交
两阶段提交模型可能因为 leader 宕机带来数据不一致: - leader 发起一个事务 proposal 后就宕机,follower 都没有 proposal
- leader 收到半数 ack 宕机,没来得及向 follower 发送 commit
崩溃恢复
leader 服务器出现崩溃或者由于网络原因导致 leader 服务器失去了与过半 follower的联系,那么就会进入崩溃恢复模式,崩溃恢复主要包括两部分:leader 选举和数据恢复 zab 协议崩溃恢复要求满足以下两个要求:
- 已经被 leader 提交的提案 proposal,必须最终被所有的 follower 服务器正确提交
- 丢弃已经被 leader 提出的,但是没有被提交的 proposal zab 协议需要保证选举出来的 leader 需要满足以下条件:
- 新选举的 leader 不能包含未提交的 proposal,即新 leader 必须都是已经提交了 proposal 的 follower 节点
- 新选举的 leader 节点含有最大的 zxid,可以避免 leader 服务器检查 proposal 的提交和丢弃工作
数据恢复阶段: - 完成 leader 选举后,在正式开始工作之前(接收事务请求提出新的 proposal),leader 服务器会首先确认事务日志中的所有 proposal 是否已经被集群中过半的服务器 commit
- leader 服务器需要确保所有的 follower 服务器能够接收到每一条事务的 proposal,并且能将所有已经提交的事务 proposal 应用到内存数据中,所以只有当 follower 将所有尚未同步的事务 proposal 都从 leader 服务器上同步,并且应用到内存数据后,leader 才会把该 follower 加入到真正可用的 follower 列表中
异常处理
zab 的事务编号 zxid 设计:
- zxid 是一个 64 位的数字,低 32 位是一个简单的单增计数器,针对客户端每一个事务请求,leader 在产生新的 proposal 事务时,都会对该计数器加 1,而高 32 位则代表了 leader 周期的 epoch 编号
- epoch 为当前集群所处的代或者周期,每次 leader 变更后都会在 epoch 的基础上加 1,follower 只服从 epoch 最高的 leader 命令,所以旧的 leader 崩溃恢复之后,其他 follower 就不会继续追随
- 每次选举产生一个新的 leader,就会从新 leader 服务器上取出本地事务日志中最大编号 proposal 的 zxid,从 zxid 中解析得到对应的 epoch 编号,然后再对其加 1 后作为新的 epoch 值,并将低 32 位数字归零,由 0 开始重新生成 zxid zab 协议通过 epoch 编号来区分 leader 变化周期,能够有效避免不同的 leader 错误的使用了相同的 zxid 编号提出了不一样的 proposal 的异常情况 zab 数据同步过程:数据同步阶段要以 leader 服务器为准
- 一个包含了上个 leader 周期中尚未提交过的事务 proposal 的服务器启动时,这台机器加入集群中会以 follower 角色连上 leader
- leader 会根据自己服务器上最后提交的 proposal 和 follower 服务器的 proposal 进行比对,让 follower 进行一个回退或者前进操作,到一个已经被集群中过半机器 commit 的最新 proposal(源码解析部分详解)
cap
cap 理论指的是在一个分布式系统中,consistency(一致性)、availability(可用性)、partition tolerance(分区容错性)不能同时成立,zookeeper 保证的是 cp
- zookeeper 不能保证每次服务请求的可用性,在极端环境下可能会丢弃一些请求,消费者程序需要重新请求才能获得结果
- 进行 leader 选举时集群都是不可用 cap 三个基本需求,因为 p 是必须的,因此分布式系统选择就在 cp 或者 ap 中:
- 一致性:指数据在多个副本之间是否能够保持数据一致的特性,当一个系统在数据一致的状态下执行更新操作后,也能保证系统的数据仍然处于一致的状态
- 可用性:指系统提供的服务必须一直处于可用的状态,即使集群中一部分节点故障,对于用户的每一个操作请求总是能够在有限的时间内返回结果
- 分区容错性:分布式系统在遇到任何网络分区故障时,仍然能够保证对外提供服务,不会宕机,除非是整个网络环境都发生了故障
监听机制
实现原理
zookeeper 中引入了 watcher 机制来实现了发布/订阅功能,客户端注册监听目录节点,在特定事件触发时,zookeeper 会通知所有关注该事件的客户端,保证 zookeeper 保存的任何的数据的任何改变都能快速的响应到监听应用程序 监听命令:只能生效一次,接收一次通知,再次监听需要重新注册
ls –w /path # 监听【子节点数量】的变化
get –w /path # 监听【节点数据】的变化
工作流程:
- 在主线程中创建 zookeeper 客户端,这时就会创建两个线程,一个负责网络连接通信(connet),一个负责监听(listener)
- 通过 connect 线程将注册的监听事件发送给 zookeeper
- 在 zookeeper 的注册监听器列表中将注册的监听事件添加到列表中
- zookeeper 监听到有数据或路径变化,将消息发送给 listener 线程
- listener 线程内部调用 process() 方法 curator 框架引入了 cache 来实现对 zookeeper 服务端事件的监听,三种 watcher:
- nodecache:只是监听某一个特定的节点
- pathchildrencache:监控一个 znode 的子节点
- treecache:可以监控整个树上的所有节点,类似于 pathchildrencache 和 nodecache 的组合
监听案例
整体架构
客户端实时监听服务器动态上下线
代码实现
客户端:先启动客户端进行监听
public class distributeclient {
private string connectstring = "192.168.3.128:2181";
private int sessiontimeout = 20000;
private zookeeper zk;
public static void main(string[] args) throws exception {
distributeclient client = new distributeclient();
// 1 获取zk连接
client.getconnect();
// 2 监听/servers下面子节点的增加和删除
client.getserverlist();
// 3 业务逻辑
client.business();
}
private void business() throws interruptedexception {
thread.sleep(long.max_value);
}
private void getserverlist() throws keeperexception, interruptedexception {
arraylist<string> servers = new arraylist<>();
// 获取所有子节点,true 代表触发监听操作
list<string> children = zk.getchildren("/servers", true);
for (string child : children) {
// 获取子节点的数据
byte[] data = zk.getdata("/servers/" + child, false, null);
servers.add(new string(data));
}
system.out.println(servers);
}
private void getconnect() throws ioexception {
zk = new zookeeper(connectstring, sessiontimeout, new watcher() {
@override
public void process(watchedevent event) {
getserverlist();
}
});
}
}
服务端:启动时需要 program arguments
public class distributeserver {
private string connectstring = "192.168.3.128:2181";
private int sessiontimeout = 20000;
private zookeeper zk;
public static void main(string[] args) throws exception {
distributeserver server = new distributeserver();
// 1 获取 zookeeper 连接
server.getconnect();
// 2 注册服务器到 zk 集群,注意参数
server.register(args[0]);
// 3 启动业务逻辑
server.business();
}
private void business() throws interruptedexception {
thread.sleep(long.max_value);
}
private void register(string hostname) throws keeperexception, interruptedexception {
// open_acl_unsafe: acl 开放
// ephemeral_sequential: 临时顺序节点
string create = zk.create("/servers/" + hostname, hostname.getbytes(),
zoodefs.ids.open_acl_unsafe, createmode.ephemeral_sequential);
system.out.println(hostname + " is online");
}
private void getconnect() throws ioexception {
zk = new zookeeper(connectstring, sessiontimeout, new watcher() {
@override
public void process(watchedevent event) {
}
});
}
}
分布式锁
实现原理
分布式锁可以实现在分布式系统中多个进程有序的访问该临界资源,多个进程之间不会相互干扰 核心思想:当客户端要获取锁,则创建节点,使用完锁,则删除该节点
- 客户端获取锁时,在 /locks 节点下创建临时顺序节点
-
- 使用临时节点是为了防止当服务器或客户端宕机以后节点无法删除(持久节点),导致锁无法释放
- 使用顺序节点是为了系统自动编号排序,找最小的节点,防止客户端饥饿现象,保证公平
- 获取 /locks 目录的所有子节点,判断自己的子节点序号是否最小,成立则客户端获取到锁,使用完锁后将该节点删除
- 反之客户端需要找到比自己小的节点,对其注册事件监听器,监听删除事件
- 客户端的 watcher 收到删除事件通知,就会重新判断当前节点是否是子节点中序号最小,如果是则获取到了锁, 如果不是则重复以上步骤继续获取到比自己小的一个节点并注册监听
curator
curator 实现分布式锁 api,在 curator 中有五种锁方案:
- interprocesssemaphoremutex:分布式排它锁(非可重入锁)
- interprocessmutex:分布式可重入排它锁
- interprocessreadwritelock:分布式读写锁
- interprocessmultilock:将多个锁作为单个实体管理的容器
- interprocesssemaphorev2:共享信号量
public class curatorlock {
public static curatorframework getcuratorframework() {
// 重试策略对象
exponentialbackoffretry policy = new exponentialbackoffretry(3000, 3);
// 构建客户端
curatorframework client = curatorframeworkfactory.builder()
.connectstring("192.168.3.128:2181")
.connectiontimeoutms(2000) // 连接超时时间
.sessiontimeoutms(20000) // 会话超时时间 单位ms
.retrypolicy(policy) // 重试策略
.build();
// 启动客户端
client.start();
system.out.println("zookeeper 启动成功");
return client;
}
public static void main(string[] args) {
// 创建分布式锁1
interprocessmutex lock1 = new interprocessmutex(getcuratorframework(), "/locks");
// 创建分布式锁2
interprocessmutex lock2 = new interprocessmutex(getcuratorframework(), "/locks");
new thread(new runnable() {
@override
public void run() {
lock1.acquire();
system.out.println("线程1 获取到锁");
thread.sleep(5 * 1000);
lock1.release();
system.out.println("线程1 释放锁");
}
}).start();
new thread(new runnable() {
@override
public void run() {
lock2.acquire();
system.out.println("线程2 获取到锁");
thread.sleep(5 * 1000);
lock2.release();
system.out.println("线程2 释放锁");
}
}).start();
}
}
<dependency>
<groupid>org.apache.curator</groupid>
<artifactid>curator-framework</artifactid>
<version>4.3.0</version>
</dependency>
<dependency>
<groupid>org.apache.curator</groupid>
<artifactid>curator-recipes</artifactid>
<version>4.3.0</version>
</dependency>
<dependency>
<groupid>org.apache.curator</groupid>
<artifactid>curator-client</artifactid>
<version>4.3.0</version>
源码解析
服务端
服务端程序的入口 quorumpeermain
public static void main(string[] args) {
quorumpeermain main = new quorumpeermain();
main.initializeandrun(args);
}
initializeandrun 的工作:
- 解析启动参数
- 提交周期任务,定时删除过期的快照
- 初始化通信模型,默认是 nio 通信
// quorumpeermain#runfromconfig
public void runfromconfig(quorumpeerconfig config) {
// 通信信组件初始化,默认是 nio 通信
servercnxnfactory cnxnfactory = servercnxnfactory.createfactory();
// 初始化nio 服务端socket,绑定2181 端口,可以接收客户端请求
cnxnfactory.configure(config.getclientportaddress(), config.getmaxclientcnxns(), false);
// 启动 zk
quorumpeer.start();
}
- 启动 zookeeper
// quorumpeer#start
public synchronized void start() {
if (!getview().containskey(myid)) {
throw new runtimeexception("my id " + myid + " not in the peer list");
}
// 冷启动数据恢复,将快照中数据恢复到 datatree
loaddatabase();
// 启动通信工厂实例对象
startservercnxnfactory();
try {
adminserver.start();
} catch (adminserverexception e) {
log.warn("problem starting adminserver", e);
system.out.println(e);
}
// 准备选举环境
startleaderelection();
// 执行选举
super.start();
}
选举机制
环境准备
quorumpeer#startleaderelection 初始化选举环境:
synchronized public void startleaderelection() {
try {
// looking 状态,需要选举
if (getpeerstate() == serverstate.looking) {
// 选票组件: myid (serverid), zxid, epoch
// 开始选票时,serverid 是自己,【先投自己】
currentvote = new vote(myid, getlastloggedzxid(), getcurrentepoch());
}
}
if (electiontype == 0) {
try {
udpsocket = new datagramsocket(getquorumaddress().getport());
// 响应投票结果线程
responder = new responderthread();
responder.start();
} catch (socketexception e) {
throw new runtimeexception(e);
}
}
// 创建选举算法实例
this.electionalg = createelectionalgorithm(electiontype);
}
// zk总的发送和接收队列准备好
protected election createelectionalgorithm(int electionalgorithm){
// 负责选举过程中的所有网络通信,创建各种队列和集合
quorumcnxmanager qcm = createcnxnmanager();
quorumcnxmanager.listener listener = qcm.listener;
if(listener != null){
// 启动监听线程, 调用 client = ss.accept()阻塞,等待处理请求
listener.start();
// 准备好发送和接收队列准备
fastleaderelection fle = new fastleaderelection(this, qcm);
// 启动选举线程,【workersender 和 workerreceiver】
fle.start();
le = fle;
}
}
选举源码
当 zookeeper 启动后,首先都是 looking 状态,通过选举让其中一台服务器成为 leader 执行 super.start() 相当于执行 quorumpeer#run() 方法
public void run() {
case looking:
// 进行选举,选举结束返回最终成为 leader 胜选的那张选票
setcurrentvote(makelestrategy().lookforleader());
}
fastleaderelection 类:
- lookforleader:选举
public vote lookforleader() {
// 正常启动中其他服务器都会向我发送一个投票,保存每个服务器的最新合法有效的投票
hashmap<long, vote> recvset = new hashmap<long, vote>();
// 存储合法选举之外的投票结果
hashmap<long, vote> outofelection = new hashmap<long, vote>();
// 一次选举的最大等待时间,默认值是0.2s
int nottimeout = finalizewait;
// 每发起一轮选举,logicalclock++,在没有合法的epoch 数据之前,都使用逻辑时钟代替
synchronized(this){
// 更新逻辑时钟,每进行一次选举,都需要更新逻辑时钟
logicalclock.incrementandget();
// 更新选票(serverid, zxid, epoch)
updateproposal(getinitid(), getinitlastloggedzxid(), getpeerepoch());
}
// 广播选票,把自己的选票发给其他服务器
sendnotifications();
// 一轮一轮的选举直到选举成功
while ((self.getpeerstate() == serverstate.looking) && (!stop)){ }
}
- sendnotifications:广播选票
private void sendnotifications() {
// 遍历投票参与者,给每台服务器发送选票
for (long sid : self.getcurrentandnextconfigvoters()) {
// 创建发送选票
tosend notmsg = new tosend(...);
// 把发送选票放入发送队列
sendqueue.offer(notmsg);
}
}
fastleaderelection 中有 workersender 线程:
- tosend m = sendqueue.poll(3000, timeunit.milliseconds):阻塞获取要发送的选票
- process(m):处理要发送的选票 manager.tosend(m.sid, requestbuffer):发送选票
-
- if (this.mysid == sid):如果消息的接收者 sid 是自己,直接进入自己的 recvqueue(自己投自己)
- else:如果接收者是其他服务器,创建对应的发送队列或者复用已经存在的发送队列,把消息放入该队列
- connectone(sid):建立连接
-
-
- sock.connect(electionaddr, cnxto):建立与 sid 服务器的连接
- initiateconnection(sock, sid):初始化连接 startconnection(sock, sid):创建并启动发送器线程和接收器线程
-
-
-
-
- dout = new dataoutputstream(buf):获取 socket 输出流,向服务器发送数据
- din = new datainputstream(new bis(sock.getinputstream()))):通过输入流读取对方发送过来的选票
- if (sid > self.getid()):接收者 sid 比我的大,没有资格给对方发送连接请求的,直接关闭自己的客户端
- sendworker sw:初始化发送器,并启动发送器线程,线程 run 方法
-
-
-
-
-
-
- while (running && !shutdown && sock != null):连接没有断开就一直运行
- bytebuffer b = pollsendqueue():从发送队列 sendqueue 中获取发送消息
- lastmessagesent.put(sid, b):更新对于 sid 这台服务器的最近一条消息
- send(b):执行发送
-
-
-
-
-
-
- recvworker rw:初始化接收器,并启动接收器线程
-
-
-
-
-
-
- din.readfully(msgarray, 0, length):输入流接收消息
- addtorecvqueue(new message(messagg, sid)):将消息放入接收消息 recvqueue 队列 fastleaderelection 中有 workerreceiver 线程
-
-
-
- response = manager.pollrecvqueue():从 recvqueue 中阻塞获取出选举投票消息(其他服务器发送过来的)
状态同步
选举结束后,每个节点都需要根据角色更新自己的状态,leader 更新状态为 leader,其他节点更新状态为 follower,整体流程:
- follower 需要让 leader 知道自己的状态 (sid, epoch, zxid)
- leader 接收到信息,根据信息构建新的 epoch,要返回对应的信息给 follower,follower 更新自己的 epoch
- leader 需要根据 follower 的状态,确定何种方式的数据同步 diff、trunc、snap,就是要以 leader 服务器数据为准
-
- diff:leader 提交的 zxid 比 follower 的 zxid 大,发送 proposal 给 follower 提交执行
- trunc:follower 的 zxid 比leader 的 zxid 大,follower 要进行回滚
- snap:follower 没有任何数据,直接全量同步
- 执行数据同步,当 leader 接收到超过半数 follower 的 ack 之后,进入正常工作状态,集群启动完成
核心函数解析: - leader 更新状态入口:leader.lead()
-
- zk.loaddata():恢复数据到内存
- cnxacceptor = new learnercnxacceptor():启动通信组件
-
-
- s = ss.accept():等待其他 follower 节点向 leader 节点发送同步状态
- learnerhandler fh:接收到 follower 的请求,就创建 learnerhandler 对象
- fh.start():启动线程,通过 switch-case 语法判断接收的命令,执行相应的操作
-
- follower 更新状态入口:follower.followerleader()
-
- quorumserver leaderserver = findleader():查找 leader
- connecttoleader(addr, hostname):与 leader 建立连接
- long newepochzxid = registerwithleader(leader.followerinfo):向 leader 注册
主从工作
leader:主服务的工作流程
follower:从服务的工作流程,核心函数为 follower#followleader()
- readpacket(qp):读取信息
- processpacket(qp):处理信息
protected void processpacket(quorumpacket qp) throws exception{
switch (qp.gettype()) {
case leader.ping:
break;
case leader.proposal:
break;
case leader.commit:
break;
case leader.commitandactivate:
break;
case leader.uptodate:
break;
case leader.revalidate:
break;
case leader.sync:
break;
default:
break;
}
}
客户端
发表评论