使用kubeadm部署Kubernetes 1.26及其它版本

1.系统配置

环境信息:

  • 系统:CentOS Linux release 7.6.1810 (Core)
  • k8s版本:1.26.0 (可自己选择)
IP 主机名 规划角色
192.168.223.123 auto-inspaction-1 master
192.168.223.68 auto-inspaction-0 node
192.168.223.73 auto-inspaction-2 node

在各个主机上完成下面的系统配置。

如果各个主机启用了防火墙或安全组策略,需要开放Kubernetes各个组件所需要的端口,可以查看Ports and Protocols中的内容, 开放相关端口或者关闭主机的防火墙。

禁用SELINUX:

setenforce 0;sed -i 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config;sed -i 's/SELINUX=permissive/SELINUX=disabled/' /etc/selinux/config

创建/etc/modules-load.d/containerd.conf配置文件:

cat << EOF > /etc/modules-load.d/containerd.conf
overlay
br_netfilter
EOF

执行以下命令使配置生效:

modprobe overlay
modprobe br_netfilter

创建/etc/sysctl.d/99-kubernetes-cri.conf配置文件:

cat << EOF > /etc/sysctl.d/99-kubernetes-cri.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
user.max_user_namespaces=28633
EOF

执行以下命令使配置生效:

sysctl -p /etc/sysctl.d/99-kubernetes-cri.conf

配置服务器支持开启ipvs的前提条件:
由于ipvs已经加入到了内核的主干,所以为kube-proxy开启ipvs的前提需要加载以下的内核模块:

ip_vs
ip_vs_rr
ip_vs_wrr
ip_vs_sh
nf_conntrack_ipv4

在各个服务器节点上执行以下脚本:

cat > /etc/sysconfig/modules/ipvs.modules <<EOF
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF

赋权:

chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4

上面脚本创建了的/etc/sysconfig/modules/ipvs.modules文件,保证在节点重启后能自动加载所需模块。
使用lsmod | grep -e ip_vs -e nf_conntrack_ipv4命令查看是否已经正确加载所需的内核模块。

接下来还需要确保各个节点上已经安装了ipset软件包,为了便于查看ipvs的代理规则,最好安装一下管理工具ipvsadm。

yum install -y ipset ipvsadm

如果不满足以上前提条件,则即使kube-proxy的配置开启了ipvs模式,也会退回到iptables模式。

2.部署容器运行时Containerd

在各个服务器节点上安装容器运行时Containerd。
下载Containerd的二进制包,可先在网络可达的机器上下载好,再上传到服务器:

wget https://github.com/containerd/containerd/releases/download/v1.6.14/cri-containerd-cni-1.6.14-linux-amd64.tar.gz

cri-containerd-cni-1.6.14-linux-amd64.tar.gz压缩包中已经按照官方二进制部署推荐的目录结构布局好。 里面包含了systemd配置文件,containerd以及cni的部署文件。 将解压缩到系统的根目录/中:

tar -zxvf cri-containerd-cni-1.6.14-linux-amd64.tar.gz -C /

etc/
etc/cni/
etc/cni/net.d/
etc/cni/net.d/10-containerd-net.conflist
etc/systemd/
etc/systemd/system/
etc/systemd/system/containerd.service
etc/crictl.yaml
usr/
usr/local/
usr/local/sbin/
usr/local/sbin/runc
usr/local/bin/
usr/local/bin/containerd-stress
usr/local/bin/containerd-shim
usr/local/bin/containerd-shim-runc-v1
usr/local/bin/crictl
usr/local/bin/critest
usr/local/bin/containerd-shim-runc-v2
usr/local/bin/ctd-decoder
usr/local/bin/containerd
usr/local/bin/ctr
opt/
opt/cni/
opt/cni/bin/
opt/cni/bin/ptp
opt/cni/bin/bandwidth
opt/cni/bin/static
opt/cni/bin/dhcp
...
opt/containerd/
opt/containerd/cluster/

注意 经测试cri-containerd-cni-1.6.4-linux-amd64.tar.gz包中包含的runc在CentOS 7下的动态链接有问题,这里从runc的github上单独下载runc,并替换上面安装的containerd中的runc:

wget https://github.com/opencontainers/runc/releases/download/v1.1.2/runc.amd64
mv runc.amd64 runc;\cp runc /usr/local/sbin/

接下来生成containerd的配置文件:

mkdir -p /etc/containerd
containerd config default > /etc/containerd/config.toml

根据文档Container runtimes中的内容,对于使用systemd作为init system的Linux的发行版,使用systemd作为容器的cgroup driver可以确保服务器节点在资源紧张的情况更加稳定,因此这里配置各个节点上containerd的cgroup driver为systemd。

修改前面生成的配置文件/etc/containerd/config.toml:

[plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc]
  ...
  [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options]
    SystemdCgroup = true

再修改/etc/containerd/config.toml中的sandbox_image镜像源:

[plugins."io.containerd.grpc.v1.cri"]
  ...
  # sandbox_image = "k8s.gcr.io/pause:3.6"
  sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.9"

配置containerd开机启动,并启动containerd:

systemctl enable containerd --now

使用crictl测试一下,确保可以打印出版本信息并且没有错误信息输出:

crictl version
Version:  0.1.0
RuntimeName:  containerd
RuntimeVersion:  v1.6.14
RuntimeApiVersion:  v1

3.使用kubeadm部署Kubernetes

下面在各节点安装kubeadm和kubelet,创建yum源:

cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
        http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

yum makecache fast

跟根据后缀修改自己想要的版本,如kubelet-1.28.0* kubeadm-1.28.0* kubectl-1.28.0*,不指定默认则下载的是yum源里面最新的kubelet kubeadm kubectl。

yum install -y kubelet-1.26.0* kubeadm-1.26.0* kubectl-1.26.0*

运行kubelet --help可以看到原来kubelet

Rocky8.10系统上通过kubeadm部署Kubernetes 1.26版本的步骤通常包括以下几个: 1. **更新系统和依赖**: - 确保你的 Rocky Linux 8.10已经是最新的,并安装必要的工具包,如 `curl` 和 `tar`。 2. **下载 kubeadm 安装脚本**: ``` curl -LO https://get.k8s.io/kubeadm/v1.26.0/serverless/bin/linux/amd64/kubeadm ``` 3. **添加执行权限**: ``` chmod +x kubeadm ``` 4. **配置 kubeadm**: 使用 `kubeadm init phase kubeconfig write all` 创建一个默认的管理员配置文件(`kubeadmin.conf`),如果需要自定义配置,可以创建一个 `config.yaml` 文件。 5. **验证集群信息**: 运行 `kubeadm init` 或者 `kubeadm init --config config.yaml` 启动集群初始化过程。这会生成一个令牌和证书,用于后续节点加入。 6. **设置静态IP地址** (如果需要): 修改网络配置,让master节点和worker节点能通过静态IP相互访问。 7. **节点加入**: - 对于每个 worker 节点,运行 `kubeadm join <master-ip>:<port> --token <token>` 加入到集群中。 - 需要在 worker 节点上也安装 `kubectl`,以便管理和监控集群资源。 8. **验证集群状态**: 使用 `kubectl get nodes` 检查所有节点是否已成功加入到集群中,并确认它们的角色(master或worker)。 9. **启用RBAC和网络政策**: 可选地,根据需求设置rbac.authorization.k8s.io和networking.k8s.io的配置。 10. **完成初始化**: 最后,运行 `kubeadm completion zsh` 添加shell自动补全功能,提高操作效率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

企鹅侠客

您的打赏是我创作旅程中的关键燃

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值