使用docker-compose搭建zookeeper集群

本文介绍如何使用Docker和docker-compose搭建ZooKeeper集群,并通过Java程序验证集群的可用性和动态节点变更功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

# 技术

  • docker: https://www.docker.com

  • docker-compose: https://docs.docker.com/compose/

  • zookeeper docker image: https://registry.hub.docker.com/_/zookeeper

# 集群规划

  • 创建包含3个(奇数个)实例的zookeeper集群。

  • 通过docker-compose创建3个docker-zookeeper镜像,映射的宿主机端口分别为: 2081,2182,2183,集群实例myid分别为1,2,3

# 编写docker-compose

  • 可在https://registry.hub.docker.com/_/zookeeper查看demo71c889095cea9a07be0e22fb956f2c58.png

  • 环境变量66eb2971929dd77a020dd552e863cbf9.png

  • 集群模式下的环境变量03085f75d51e1ebc0876bee97f368bbb.png

  • 编写docker-compose

# docker compose版本
version: "3.1"

services:
  # 节点1
  zk1:
    # 镜像名称
    image: zookeeper
    # 容器名称
    container_name: zk1.docker
    # docker重启后自动重启容器
    restart: always
    # 当前容器主机名
    hostname: zk1.docker
    # 端口 宿主机:容器
    ports:
      - 2181:2181
    # 环境变量
    environment:
      # myid,一个集群内唯一标识一个节点
      ZOO_MY_ID: 1
      # 集群内节点列表
      ZOO_SERVERS:
        - server.1=zk1.docker:2888:3888;2181
        - server.2=zk2.docker:2888:3888;2181
        - server.3=zk3.docker:2888:3888;2181
  # 节点2
  zk2:
    image: zookeeper
    container_name: zk2.docker
    restart: always
    hostname: zk2.docker
    ports:
      - 2182:2181
    environment:
      ZOO_MY_ID: 2
      ZOO_SERVERS:
        - server.1=zk1.docker:2888:3888;2181
        - server.2=zk2.docker:2888:3888;2181
        - server.3=zk3.docker:2888:3888;2181
  # 节点3
  zk3:
    image: zookeeper
    container_name: zk3.docker
    restart: always
    hostname: zk3.docker
    ports:
      - 2183:2181
    environment:
      ZOO_MY_ID: 3
      ZOO_SERVERS:
        - server.1=zk1.docker:2888:3888;2181
        - server.2=zk2.docker:2888:3888;2181
        - server.3=zk3.docker:2888:3888;2181
  • 运行docker-compose脚本 docker-compose -f zk-replicated.yml up

# 检查集群运行状态

  • 镜像列表fada540f65de5b96b990e66ec6f8f69b.png4c1c12a8c7ec2c0054dde0f59651626c.png

  • 查看节点的状态(容器启动顺序为zk1, zk2, zk3) bin/zkServer.sh status

  • zk1:

    • Mode: follower3f81cd77d5a282ff31d659fe13cf029b.png

  • zk2:

    • Mode: leaderea288611bc942b2cc56400acbe8da3b6.png

  • zk3:

    • Mode: followerf245dc1518a83d159b48d7f6e833b1fd.png

  • 三个节点都启动成功,且因为启动循序是zk1, zk2, zk3,所以根据zk的选举算法,选举zk2为leader,其他的为follower。

  • 选举过程:

  1. 启动zk1(myid=1),投自己一票,此时因为集群大小为3,不够半数票,无法完成选举,所以状态为LOOKING

  2. 启动zk2(myid=2),zk2投自己一票并发起选举,zk1发现zk2的myid比自己的大,所以把选票投给zk2,此时zk2的选票为2,超过了集群大小的一半,选举结束,zk2为leader,zk1为follower

  3. 启动zk3(myid=3), zk3投自己一票,zk1,zk2由于不是LOOKING状态,不会改变选票,所以zk3为follower

# 通过Java程序进行测试

package com.futao.zookeeper.dynamic;

import lombok.SneakyThrows;
import lombok.extern.slf4j.Slf4j;
import org.apache.zookeeper.*;
import org.apache.zookeeper.data.Stat;

import java.io.IOException;
import java.nio.charset.StandardCharsets;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.TimeUnit;

/**
 * 客户端监听服务实例的变化
 *
 * @author ft
 * @date 2021/8/3
 */
@Slf4j
public class Client {
    private static ZooKeeper Zk = null;
    /**
     * 集群地址
     */
    private static final String CONNECT_STRING = "localhost:2181,localhost:2182,localhost:2183";

    public static void main(String[] args) throws IOException, InterruptedException {
        Zk = new ZooKeeper(CONNECT_STRING, 2000, new Watcher() {
            @SneakyThrows
            @Override
            public void process(WatchedEvent event) {
                Stat stat = Zk.exists("/server-pig", false);
                if (stat == null) {
                    Zk.create("/server-pig", "".getBytes(StandardCharsets.UTF_8), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
                    log.info("创建/server-pig成功");
                }
                // 可用的实例列表
                List<String> serverList = new ArrayList<>();
                List<String> children = Zk.getChildren("/server-pig", true);
                for (String child : children) {
                    byte[] data = Zk.getData("/server-pig/" + child, false, null);
                    // 拿到的是节点名,而不是data,why?
                    serverList.add(new String(data));
                }
                System.out.println(children);
            }
        });
        // 阻塞主线程
        TimeUnit.HOURS.sleep(1);
    }
}
  • 创建节点之前的集群状态b64a23dbb3c73f7921fb0abefbe961b5.png

  • 程序创建节点 /server-pig73595c9b8ed325899904b953bcce3c23.png

  • 创建/server-pig节点之后,且集群各个节点之间的数据是同步a4286c6e22b714ee0865a21d786bc287.png

集群搭建完成

# 集群节点下线

  • 对于zookeeper集群,只要超过半数的节点是活的,集群即可正常对外提供服务。

  • 停止zk261fb0a0cffa8da4de749a160891796db.png

  • 应用仍能正常使用8b00d396c2ca5f77a80c5153b2e0ec86.png

  • 此时集群节点状态:

    • zk1为follower

    • zk3为leader714ee5e0eea470251438ffb53efba13a.png0b24d8968a5f49a4cdbc312a7289c718.png

# 其他

  • IDEA ZK插件b22628dc90c7e141da7d7b4de363f2d7.png7a8731b6d3a06333bd2ff80bfdd5efc2.png

  • IDEA 查看/操作docker镜像d722bd434a1f751c832634a9e2ca5af4.png

  • visualStudioCode docker插件198eda7254a8c789f03bec1a1e8de90c.png

  • docker desktop79e123ce7d7a9068a850845ed7d749e4.png

# TODO

  • 动态增删ZK集群节点

### 使用 Docker-Compose 部署 Zookeeper 集群 #### 1. 环境准备 在开始之前,确保每台虚拟机已经安装了 **Docker** 和 **Docker Compose**。如果尚未安装,可以按照以下步骤完成安装: - 使用 `yum` 或其他包管理工具安装 Python3 的 Pip 工具: ```bash yum -y install python3-pip ``` - 升级 Pip 至最新版本以提高兼容性和性能: ```bash pip3 install --upgrade pip -i https://pypi.tuna.tsinghua.edu.cn/simple ``` - 安装 Docker Compose 工具以便能够轻松管理和编排容器化服务: ```bash pip3 install docker-compose -i https://pypi.tuna.tsinghua.edu.cn/simple ``` - 验证 Docker Compose 是否成功安装并获取其当前版本号: ```bash docker-compose version ``` 以上步骤完成后即可进入实际配置阶段[^4]。 #### 2. 创建 Docker Compose 文件 在一个目录下创建名为 `docker-compose.yml` 的文件,并编辑如下内容作为基础模板: ```yaml version: '3' services: zookeeper1: image: zookeeper:latest container_name: zookeeper1 ports: - "2181:2181" - "2888:2888" - "3888:3888" environment: ZOO_MY_ID: 1 ZOO_SERVERS: server.1=zookeeper1:2888:3888;2181 server.2=zookeeper2:2888:3888;2181 server.3=zookeeper3:2888:3888;2181 networks: - zookeeper-net zookeeper2: image: zookeeper:latest container_name: zookeeper2 ports: - "2182:2181" - "2889:2888" - "3889:3888" environment: ZOO_MY_ID: 2 ZOO_SERVERS: server.1=zookeeper1:2888:3888;2181 server.2=zookeeper2:2888:3888;2181 server.3=zookeeper3:2888:3888;2181 networks: - zookeeper-net zookeeper3: image: zookeeper:latest container_name: zookeeper3 ports: - "2183:2181" - "2890:2888" - "3890:3888" environment: ZOO_MY_ID: 3 ZOO_SERVERS: server.1=zookeeper1:2888:3888;2181 server.2=zookeeper2:2888:3888;2181 server.3=zookeeper3:2888:3888;2181 networks: - zookeeper-net networks: zookeeper-net: driver: bridge ``` 此 YAML 文件定义了一个由三个节点组成的 Zookeeper 集群环境[^2]。 #### 3. 启动集群 保存上述配置后,在同一路径执行启动命令: ```bash docker-compose up -d ``` 这将以分离模式运行所有指定的服务实例[^5]。 #### 4. 验证状态 可以通过以下方式检查各个节点的工作情况以及角色分配(leader/follower): ```bash docker exec -it zookeeper1 zkServer.sh status docker exec -it zookeeper2 zkServer.sh status docker exec -it zookeeper3 zkServer.sh status ``` 正常情况下会返回类似于这样的信息表明该服务器处于跟随者或者领导者模式之中: ``` ZooKeeper JMX enabled by default Using config: /conf/zoo.cfg Mode: follower/leader ``` 另外还可以尝试连接到任意一台机器上的客户端界面进一步测试功能连通性与数据一致性等问题存在与否。 例如先切换至某个具体容器内部再调用对应脚本实现交互操作目的: ```bash docker exec -it zookeeper1 bash cd /opt/zookeeper/bin/ ./zkCli.sh -server localhost:2181 ``` 至此整个流程结束即完成了利用 Docker Compose 构建起一套完整的分布式协调框架解决方案——ZooKeeper Cluster!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值