首页 > 其他分享 >手把手教你二进制安装生产环境 K8s 多 master 节点高可用集群详细图文教程

手把手教你二进制安装生产环境 K8s 多 master 节点高可用集群详细图文教程

时间:2023-03-22 15:44:08浏览次数:54  
标签:master1 K8s kubernetes -- 手把手 master k8s root kube

目录

一、集群环境准备

1.1 kubeadm 和二进制安装 k8s 适用场景分析

1.2 多 master 节点高可用架构图

二、基础环境配置(以下操作所有节点都得执⾏)

2.1 初步的环境初始化

2.2  关闭交换分区 swap 提升性能

2.3 修改机器内核参数

2.4 配置阿里云的 repo 源

2.5 配置安装 k8s 组件需要的阿里云的 repo 源

2.6 主机系统优化

2.7 开启 ipvs

2.8 清除邮件提示消息

2.9 升级 Linux 内核

2.9.1 安装 5.x 内核

2.9.2 切换新内核启动

2.10 配置免密登录(在 k8s-master1 上操作 )

三、安装 Docker 和容器运行时 containerd(所有节点)

3.1 安装 docker-ce

3.2 配置 docker 镜像加速器和驱动

四、搭建 etcd 集群(在 master1 上操作)

4.1 配置 etcd 工作目录

4.2 安装签发证书工具 cfssl

4.3 配置 CA 证书

4.3.1 创建 ca 证书请求文件

4.3.2 配置 ca 证书策略

4.4 创建 etcd 证书

4.5 部署 etcd 集群

4.5.1 下载 etcd 软件包

4.5.2 安装 etcd 软件

4.5.3 分发 etcd 软件

4.5.4 创建配置文件

4.5.5 创建服务配置文件

4.5.6 同步 etcd 配置到集群其它 master 节点

4.5.7 启动 etcd 集群(三个 master 节点都需要操作)

4.5.8 验证集群状态

五、Kubernetes 组件部署

5.1 Kubernetes 软件包下载

5.2 Kubernetes 软件包安装

5.3 Kubernetes 软件分发

5.4 在集群节点上创建目录(所有节点)

5.5 部署 api-server

5.5.1 创建 apiserver 证书请求文件

5.5.2 生成 apiserver 证书及 token 文件

5.5.3 创建 apiserver 服务配置文件

5.5.4 创建 apiserver 服务管理配置文件 

5.5.5 同步文件到集群 master 节点 

5.5.6 启动 apiserver 服务

5.6 部署 kubectl

5.6.1 创建 kubectl 证书请求文件

5.6.2 生成证书文件

5.6.3 复制文件到指定目录

5.6.4 生成 kubeconfig 配置文件

5.6.5 准备 kubectl 配置文件并进行角色绑定

5.6.6 查看集群状态

5.6.7 同步 kubectl 配置文件到集群其它 master 节点

5.6.8 配置 kubectl 命令补全(可选)

5.7 部署 kube-controller-manager

5.7.1 创建 kube-controller-manager 证书请求文件 

5.7.2 创建 kube-controller-manager 证书文件

5.7.3 创建 kube-controller-manager 的 kube-controller-manager.kubeconfig

5.7.4 创建 kube-controller-manager 配置文件 

5.7.5 创建服务启动文件

5.7.6 同步文件到集群 master 节点

5.7.7 启动服务(在三个 master 执行)

5.8 部署 kube-scheduler

5.8.1 创建 kube-scheduler 证书请求文件

5.8.2 生成 kube-scheduler 证书 

5.8.3 创建 kube-scheduler 的 kubeconfig

5.8.4 创建服务配置文件

5.8.5 创建服务启动配置文件 

5.8.6 同步文件至集群 master 节点

5.8.7 启动服务

六、工作节点(worker node)部署

6.1 部署 kubelet(在 k8s-master1 上操作)

6.1.1 创建 kubelet-bootstrap.kubeconfig

6.2.2 创建 kubelet 配置文件

6.1.3 创建 kubelet 服务启动管理文件

6.1.4 同步文件到集群节点

6.1.5 创建目录及启动服务(所有节点执行)

6.1.6 验证集群状态

6.2 部署 kube-proxy

6.2.1 创建 kube-proxy 证书请求文件

6.2.2 生成证书

6.2.3 创建 kubeconfig 文件

6.2.4 创建服务配置文件

6.2.5 创建服务启动管理文件

6.2.6 同步文件到集群节点

6.2.7 服务启动(所有节点)

6.3 网络组件部署 Calico

6.3.1 下载 calico.yaml

6.3.2 修改 calico.yaml 里的 pod 网段

6.3.3 提前下载好所需的镜像(可省略,直接执行下一步)

6.3.4 安装 calico 网络

6.3.5 验证结果

6.4 部署 CoreDNS

6.4.1 下载 coredns.yaml

6.4.2 修改 coredns.yaml

6.4.3 安装 coredns

6.4.5 测试 coredns 域名解析功能

七、安装 keepalived+nginx 实现 k8s apiserver 高可用

7.1 keepalived+nginx 高可用介绍

7.1.1 什么是高可用?

7.1.2 解决的问题?

7.1.3 双机热备方案

7.1.4 keepalived 是什么?

7.1.5 故障转移机制

7.2 安装 nginx 与 keeplived(所有 master 节点)

7.3 nginx 配置(三个 master 节点的 nginx 配置一样)

7.4 配置 KeepAlived(所有 Master 节点)

7.4.1 Master1

7.4.2 Master2

7.4.3 Master3

7.5 健康检查脚本(三个 master 执行)

7.6 启动 nginx 和 keepalived(所有 master 节点)

7.7 查看 vip 是否绑定成功

7.8 测试 keepalived


 

本篇文章所用到的资料文件下载地址:https://download.csdn.net/download/weixin_46560589/87450425

一、集群环境准备

  • 操作系统:CentOS 7.6
  • 最低配置: 2Gib 内存 / 2vCPU / 30G 硬盘
  • 虚拟机网络:NAT 模式
  • podSubnet( pod 网段):10.0.0.0/16
  • serviceSubnet(service 网段):10.255.0.0/16
  • k8s 版本:1.25.x
K8s 集群角色 IP 主机名 安装的组件
控制节点(master) 192.168.78.150 k8s-master1 kube-apiserver、kube-controller-manager、kube-scheduler、etcd、kubelet、kube-proxy、docker、KeepAlive、nginx
控制节点(master) 192.168.78.151 k8s-master2 kube-apiserver、kube-controller-manager、kube-scheduler、etcd、kubelet、kube-proxy、docker、KeepAlive、nginx
控制节点(master) 192.168.78.152 k8s-master3 kube-apiserver、kube-controller-manager、kube-scheduler、etcd、kubelet、kube-proxy、docker、KeepAlive、nginx
工作节点(node) 192.168.78.153 k8s-node1 kubelet、kube-proxy、docker、calico、coredns
工作节点(node) 192.168.78.154 k8s-node2 kubelet、kube-proxy、docker、calico、coredns
虚拟 IP(VIP) 192.168.78.155   备注:在 master 节点生成,不需要另外新开一台主机

注意:VIP(虚拟 IP)不要和公司内⽹ IP 重复,⾸先去 ping ⼀下,不通才可⽤。VIP 需要和主机在同⼀个局域⽹内!

1.1 kubeadm 和二进制安装 k8s 适用场景分析

        kubeadm 是官方提供的开源工具,是一个开源项目,用于快速搭建 kubernetes 集群,目前是比较方便和推荐使用的。kubeadm init 以及 kubeadm join 这两个命令可以快速创建 kubernetes 集群。Kubeadm 初始化 k8s,所有的组件都是以 pod 形式运行的,具备故障自恢复能力。

        kubeadm 是工具,可以快速搭建集群,也就是相当于用程序脚本帮我们装好了集群,属于自动部署,简化部署操作,证书、组件资源清单文件都是自动创建的,自动部署屏蔽了很多细节,使得对各个模块感知很少,如果对 k8s 架构组件理解不深的话,遇到问题比较难排查。

kubeadm 适合需要经常部署 k8s,或者对自动化要求比较高的场景下使用。

二进制:在官网下载相关组件的二进制包,如果手动安装,对 kubernetes 理解也会更全面。

        Kubeadm 和二进制都适合生产环境,在生产环境运行都很稳定,具体如何选择,可以根据实际项目进行评估。

kubeadm 安装 k8s:【Kubernetes 企业项目实战】01、使用 kubeadm 安装 K8s-v1.23 高可用集群_Stars.Sky的博客-CSDN博客

1.2 多 master 节点高可用架构图

二、基础环境配置(以下操作所有节点都得执⾏)

2.1 初步的环境初始化

可以查看我的这篇文章所有步骤都执行一遍:CentOS 7 初始化系统_centos7初始化_Stars.Sky的博客-CSDN博客

2.2  关闭交换分区 swap 提升性能

  1.   # 临时关闭
  2.   swapoff -a
  3.    
  4.   # 永久关闭:注释 swap 挂载,给 swap 这行开头加一下 "#" 注释
  5.   sed -ri 's/.*swap.*/#&/' /etc/fstab
  6.    
  7.   # 查看效果
  8.   free -m

为什么要关闭 swap 交换分区?
        Swap 交换分区,如果机器内存不够,会使用 swap 分区,但是 swap 分区的性能较低,k8s 设计的时候为了能提升性能,默认是不允许使用交换分区的。Kubeadm 初始化的时候会检测 swap 是否关闭,如果没关闭,那就初始化失败。如果不想要关闭交换分区,安装k8s 的时候可以指定 --ignore-preflight-errors=Swap 来解决。

2.3 修改机器内核参数

  1.   # 加载 br_netfilter 模块
  2.   cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
  3.   overlay
  4.   br_netfilter
  5.   EOF
  6.    
  7.   sudo modprobe overlay
  8.   sudo modprobe br_netfilter
  9.    
  10.   # 验证模块是否加载成功:
  11.   lsmod | grep br_netfilter
  12.    
  13.   # 修改内核参数
  14.   echo "modprobe br_netfilter" >> /etc/profile
  15.    
  16.   cat > /etc/sysctl.d/k8s.conf <<EOF
  17.   net.bridge.bridge-nf-call-ip6tables = 1
  18.   net.bridge.bridge-nf-call-iptables = 1
  19.   net.ipv4.ip_forward = 1
  20.   EOF
  21.    
  22.   # 使刚才修改的内核参数生效
  23.   sysctl -p /etc/sysctl.d/k8s.conf
  24.    
  25.   # 设置开机自启
  26.   systemctl enable --now systemd-modules-load.service

问题 1 :sysctl 是做什么的?
        在运行时配置内核参数 -p 从指定的文件加载系统参数,如不指定即从 /etc/sysctl.conf 中加载。

 

问题 2 :为什么要执行 modprobe br_netfilter ?
修改 /etc/sysctl.d/k8s.conf 文件,增加如下三行参数:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1

sysctl -p /etc/sysctl.d/k8s.conf 出现报错:
sysctl: cannot stat /proc/sys/net/bridge/bridge-nf-call-ip6tables: No such file or directory
sysctl: cannot stat /proc/sys/net/bridge/bridge-nf-call-iptables: No such file or directory

解决方法:
modprobe br_netfilter

 

问题 3 :为什么开启 net.bridge.bridge-nf-call-iptables 内核参数?
在 centos 下安装 docker,执行 docker info 出现如下警告:
WARNING: bridge-nf-call-iptables is disabled
WARNING: bridge-nf-call-ip6tables is disabled
解决办法:
vim /etc/sysctl.d/k8s.conf

net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1

 

问题 4 :为什么要开启 net.ipv4.ip_forward = 1 参数?
kubeadm 初始化 k8s 如果报错:

就表示没有开启 ip_forward,需要开启。

net.ipv4.ip_forward 是数据包转发:
        出于安全考虑,Linux 系统默认是禁止数据包转发的。所谓转发即当主机拥有多于一块的网卡时,其中一块收到数据包,根据数据包的目的 ip 地址将数据包发往本机另一块网卡,该网卡根据路由表继续发送数据包。这通常是路由器所要实现的功能。
        要让 Linux 系统具有路由转发功能,需要配置一个 Linux 的内核参数net.ipv4.ip_forward。这个参数指定了 Linux 系统当前对路由转发功能的支持情况;其值为 0时表示禁止进行 IP 转发;如果是 1,则说明 IP 转发功能已经打开。

2.4 配置阿里云的 repo 源

配置国内安装 docker 和 containerd 的阿里云的 repo 源:

  1.   yum install yum-utils -y
  2.    
  3.   yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

2.5 配置安装 k8s 组件需要的阿里云的 repo 源

  1.   cat > /etc/yum.repos.d/kubernetes.repo <<EOF
  2.   [kubernetes]
  3.   name=Kubernetes
  4.   baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
  5.   enabled=1
  6.   gpgcheck=0
  7.   EOF

2.6 主机系统优化

  1.   # limit 优化
  2.   ulimit -SHn 65535
  3.    
  4.   cat <<EOF >> /etc/security/limits.conf
  5.   * soft nofile 655360
  6.   * hard nofile 131072
  7.   * soft nproc 655350
  8.   * hard nproc 655350
  9.   * soft memlock unlimited
  10.   * hard memlock unlimited
  11.   EOF

2.7 开启 ipvs

不开启 ipvs 将会使用 iptables 进行数据包转发,效率低,所以官网推荐需要开通 ipvs:

  1.   # 编写 ipvs 脚本
  2.   vim /etc/sysconfig/modules/ipvs.modules
  3.   #!/bin/bash
  4.   ipvs_modules="ip_vs ip_vs_lc ip_vs_wlc ip_vs_rr ip_vs_wrr ip_vs_lblc ip_vs_lblcr ip_vs_dh ip_vs_sh ip_vs_nq ip_vs_sed ip_vs_ftp nf_conntrack"
  5.   for kernel_module in ${ipvs_modules}; do
  6.   /sbin/modinfo -F filename ${kernel_module} > /dev/null 2>&1
  7.   if [ 0 -eq 0 ]; then
  8.   /sbin/modprobe ${kernel_module}
  9.   fi
  10.   done
  11.    
  12.   # 执行脚本
  13.   chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep ip_vs

问题 1 :ipvs 是什么?

        ipvs (IP Virtual Server) 实现了传输层负载均衡,也就是我们常说的 4 层 LAN交换,作为 Linux 内核的一部分。ipvs 运行在主机上,在真实服务器集群前充当负载均衡器。ipvs 可以将基于 TCP 和 UDP 的服务请求转发到真实服务器上,并使真实服务器的服务在单个 IP 地址上显示为虚拟服务。

 

问题 2 :ipvs 和 iptable 对比分析

        kube-proxy 支持 iptables 和 ipvs 两种模式, 在 kubernetes v1.8 中引入了 ipvs 模式,在 v1.9 中处于 beta 阶段,在 v1.11 中已经正式可用了。iptables 模式在 v1.1 中就添加支持了,从 v1.2 版本开始 iptables 就是 kube-proxy 默认的操作模式,ipvs 和 iptables 都是基于netfilter 的,但是 ipvs 采用的是 hash 表,因此当 service 数量达到一定规模时,hash 查表的速度优势就会显现出来,从而提高 service 的服务性能。那么 ipvs 模式和 iptables 模式之间有哪些差异呢?

  •     ipvs 为大型集群提供了更好的可扩展性和性能

  •     ipvs 支持比 iptables 更复杂的复制均衡算法(最小负载、最少连接、加权等等)

  •     ipvs 支持服务器健康检查和连接重试等功能

2.8 清除邮件提示消息

  1.   # 清除 "您在 /var/spool/mail/root 中有新邮件"信息
  2.   echo "unset MAILCHECK" >> /etc/profile
  3.    
  4.   source /etc/profile
  5.    
  6.   # 清空邮箱数据站空间
  7.   cat /dev/null > /var/spool/mail/root

2.9 升级 Linux 内核

安装 kubernetes 1.24及以上版本,Linux Kernel 需要在 5.x 以上的版本才可满足需求。

ELRepo 官网:ELRepo | HomePage

2.9.1 安装 5.x 内核

  1.   #1. 查看内核版本
  2.   [root@k8s-master1 ~]# uname -r
  3.   3.10.0-957.el7.x86_64
  4.    
  5.   #2. 查看操作系统版本
  6.   [root@k8s-master1 ~]# cat /etc/redhat-release
  7.   CentOS Linux release 7.6.1810 (Core)
  8.    
  9.   #3. 更新软件源,导入 ElRepo 仓库公钥
  10.   rpm --import https://www.elrepo.org/RPM-GPG-KEY-elrepo.org
  11.    
  12.   # ElRepo 是一个分发企业版 Linux 内核的社区仓库,在系统中导入 ElRepo 仓库的公钥,后续将从这个仓库中获取升级内核相关的资源。
  13.    
  14.   #4. 安装 ELRepo
  15.   yum install https://www.elrepo.org/elrepo-release-7.el7.elrepo.noarch.rpm -y
  16.    
  17.   #5. 查看可用的稳定版镜像,kernel-ml 为长期稳定版本,lt 为长期维护版本
  18.   yum --disablerepo="*" --enablerepo="elrepo-kernel" list available
  19.    
  20.   #6. 安装最新版内核
  21.   yum --enablerepo=elrepo-kernel install kernel-ml
  22.    
  23.   # 此次安装最新长期支持版内核(推荐)
  24.   yum --enablerepo=elrepo-kernel install -y kernel-lt
  25.    
  26.   #7. 查看当前系统已安装内核
  27.   [root@k8s-master1 ~]# awk -F\' '$1=="menuentry " {print i++ " : " $2}' /etc/grub2.cfg
  28.   0 : CentOS Linux (5.4.231-1.el7.elrepo.x86_64) 7 (Core)
  29.   1 : CentOS Linux (3.10.0-957.el7.x86_64) 7 (Core)
  30.   2 : CentOS Linux (0-rescue-89c97f8441be4a6588d371b35bbb6a48) 7 (Core)

2.9.2 切换新内核启动

        修改 /etc/default/grub 文件,设置 GRUB_DEFAULT 的值为 2.3.2 中输出的最新版内核对应的序号。CentOS Linux (5.4.231-1.el7.elrepo.x86_64) 7 (Core) 前边的序号是 0,所以设置GRUB_DEFAULT = 0 。

  1.   vim /etc/default/grub
  2.   GRUB_TIMEOUT=5
  3.   GRUB_DISTRIBUTOR="$(sed 's, release .*$,,g' /etc/system-release)"
  4.   GRUB_DEFAULT=0 # 只修改此次
  5.   GRUB_DISABLE_SUBMENU=true
  6.   GRUB_TERMINAL_OUTPUT="console"
  7.   GRUB_CMDLINE_LINUX="rd.lvm.lv=centos/root rd.lvm.lv=centos/swap rhgb quiet"
  8.   GRUB_DISABLE_RECOVERY="true"
  9.    
  10.   # 重新配置内核参数
  11.   grub2-mkconfig -o /boot/grub2/grub.cfg
  12.    
  13.   # 重启系统
  14.   reboot
  15.    
  16.   # 再次查看系统内核是否为最新版本
  17.   [root@k8s-master1 ~]# uname -r
  18.   5.4.231-1.el7.elrepo.x86_64

2.10 配置免密登录(在 k8s-master1 上操作 )

        Master1 节点免密钥登录其他节点,安装过程中⽣成配置⽂件和证书均在 Master1 上操作,集群管理也在 Master01上操作。密钥配置如下:

  1.   # ⼀直回⻋就⾏
  2.   ssh-keygen -t rsa
  3.    
  4.   # 等待一会,然后输入 yes,再输入各主机的密码即可
  5.   for i in k8s-master1 k8s-master2 k8s-master3 k8s-node1 k8s-node2;do ssh-copy-id -i .ssh/id_rsa.pub $i;done

三、安装 Docker 和容器运行时 containerd所有节点

docker 的安装可以看我这篇文章更详细:【云原生 | Docker 基础篇】02、CentOS 7 安装 Docker 详细图文教程_Stars.Sky的博客-CSDN博客_centos7安装docker

3.1 安装 docker-ce

  1.   yum -y install docker-ce docker-ce-cli containerd.io docker-compose-plugin
  2.    
  3.   # 设置 Docker 开机自启并启动
  4.   systemctl enable docker.service --now
  5.    
  6.   #1. 接下来生成 containerd 的配置文件:
  7.   mkdir -p /etc/containerd
  8.   containerd config default > /etc/containerd/config.toml
  9.    
  10.   # 修改配置文件:
  11.   vim /etc/containerd/config.toml
  12.   把 SystemdCgroup = false 修改成 SystemdCgroup = true
  13.   把 sandbox_image = "k8s.gcr.io/pause:3.6" 修改成 sandbox_image="registry.aliyuncs.com/google_containers/pause:3.7"
  14.    
  15.   # 配置 containerd 开机启动,并启动 containerd
  16.   systemctl enable containerd --now
  17.    
  18.   #2. 使用 crictl 对 Kubernetes 节点进行调试
  19.   cat > /etc/crictl.yaml <<EOF
  20.   runtime-endpoint: unix:///run/containerd/containerd.sock
  21.   image-endpoint: unix:///run/containerd/containerd.sock
  22.   timeout: 10
  23.   debug: false
  24.   EOF
  25.    
  26.   systemctl restart containerd
  27.    
  28.   #3. 配置 containerd 镜像加速器
  29.   vim /etc/containerd/config.toml
  30.   # 找到 config_path = "",修改成如下目录:
  31.   config_path = "/etc/containerd/certs.d"
  32.   # 保存退出 wq
  33.    
  34.   mkdir /etc/containerd/certs.d/docker.io/ -p
  35.    
  36.   vim /etc/containerd/certs.d/docker.io/hosts.toml
  37.   # 写入如下内容:
  38.   [host."https://vh3bm52y.mirror.aliyuncs.com",host."https://registry.docker-cn.com"]
  39.   capabilities = ["pull"]
  40.    
  41.   # 重启containerd:
  42.   systemctl restart containerd

3.2 配置 docker 镜像加速器和驱动

docker 镜像加速器可以看我这篇文章更详细:【云原生 | Docker 基础篇】03、Docker 阿里云镜像加速器_Stars.Sky的博客-CSDN博客_docker 镜像加速

  1.   # 修改 docker 文件驱动为 systemd,默认为 cgroupfs,kubelet 默认使用 systemd,两者必须一致才可
  2.   mkdir -p /etc/docker
  3.    
  4.   vim /etc/docker/daemon.json
  5.   {
  6.   "registry-mirrors":["https://hlfcd01t.mirror.aliyuncs.com","https://registry.docker-cn.com","https://docker.mirrors.ustc.edu.cn","https://dockerhub.azk8s.cn","http://hub-mirror.c.163.com"],
  7.   "exec-opts": ["native.cgroupdriver=systemd"]
  8.   }
  9.    
  10.   # 重新加载配置文件并重启 docker
  11.   systemctl daemon-reload && systemctl restart docker

四、搭建 etcd 集群(在 master1 上操作)

        etcd 是一个高可用的键值数据库,存储 k8s 的资源状态信息和网络信息的,etcd 中的数据变更是通过 api server 进行的。

4.1 配置 etcd 工作目录

  1.   # 创建 etcd 配置文件、证书文件、数据存放目录(三个 master 节点上都创建以下目录)
  2.   mkdir -p /etc/etcd
  3.   mkdir -p /etc/etcd/ssl
  4.   mkdir -p /var/lib/etcd/default.etcd

4.2 安装签发证书工具 cfssl

cfssl GitHub下载官网:Releases · cloudflare/cfssl · GitHub

cfssl 是使用 go 编写,由 CloudFlare 开源的一款 PKI/TLS 工具。主要程序有:

  • cfssl 是 CFSSL 的命令行工具;
  • cfssljson 用来从 cfssl 程序获取 JSON 输出,并将证书、密钥、CSR 和 bundle 写入文件中。
  1.   [root@k8s-master1 ~]# mkdir -p /data/work
  2.   [root@k8s-master1 ~]# cd /data/work/
  3.    
  4.   # 如果在虚机上下载不了,就复制链接到浏览器上下载再上传
  5.   [root@k8s-master1 work]# wget https://pkg.cfssl.org/R1.2/cfssl_linux-amd64
  6.   [root@k8s-master1 work]# wget https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64
  7.   [root@k8s-master1 work]# wget https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64
  8.   [root@k8s-master1 work]# ls
  9.   cfssl-certinfo_linux-amd64 cfssljson_linux-amd64 cfssl_linux-amd64
  10.    
  11.   # 添加可执行权限
  12.   [root@k8s-master1 work]# chmod +x cfssl*
  13.   [root@k8s-master1 work]# mv cfssl_linux-amd64 /usr/local/bin/cfssl
  14.   [root@k8s-master1 work]# mv cfssljson_linux-amd64 /usr/local/bin/cfssljson
  15.   [root@k8s-master1 work]# mv cfssl-certinfo_linux-amd64 /usr/local/bin/cfssl-certinfo
  16.    
  17.   # 验证
  18.   [root@k8s-master1 work]# cfssl version
  19.   Version: 1.2.0
  20.   Revision: dev
  21.   Runtime: go1.6

4.3 配置 CA 证书

4.3.1 创建 ca 证书请求文件

  1.   [root@k8s-master1 work]# vim ca-csr.json
  2.   {
  3.   "CN": "kubernetes",
  4.   "key": {
  5.   "algo": "rsa",
  6.   "size": 2048
  7.   },
  8.   "names": [
  9.   {
  10.   "C": "CN",
  11.   "ST": "Hubei",
  12.   "L": "Wuhan",
  13.   "O": "k8s",
  14.   "OU": "system"
  15.   }
  16.   ],
  17.   "ca": {
  18.   "expiry": "87600h"
  19.   }
  20.   }
  21.    
  22.   # 创建 ca 证书
  23.   [root@k8s-master1 work]# cfssl gencert -initca ca-csr.json | cfssljson -bare ca

注:

  • CN:Common Name(公用名称),kube-apiserver 从证书中提取该字段作为请求的用户名 (User Name);浏览器使用该字段验证网站是否合法;对于 SSL 证书,一般为网站域名;而对于代码签名证书则为申请单位名称;而对于客户端证书则为证书申请者的姓名。

  • O:Organization(单位名称),kube-apiserver 从证书中提取该字段作为请求用户所属的组 (Group);对于 SSL 证书,一般为网站域名;而对于代码签名证书则为申请单位名称;而对于客户端单位证书则为证书申请者所在单位名称。

  • L 字段:所在城市。

  • S 字段:所在省份。

  • C 字段:只能是国家字母缩写,如中国:CN

4.3.2 配置 ca 证书策略

  1.   [root@k8s-master1 work]# vim ca-config.json
  2.   {
  3.   "signing": {
  4.   "default": {
  5.   "expiry": "87600h"
  6.   },
  7.   "profiles": {
  8.   "kubernetes": {
  9.   "usages": [
  10.   "signing",
  11.   "key encipherment",
  12.   "server auth",
  13.   "client auth"
  14.   ],
  15.   "expiry": "87600h"
  16.   }
  17.   }
  18.   }
  19.   }
  • server auth 表示 client 可以对使用该 ca 对 server 提供的证书进行验证。
  • client auth 表示 server 可以使用该 ca 对 client 提供的证书进行验证。

4.4 创建 etcd 证书

配置 etcd 证书请求,hosts 的 ip 改为自己 etcd 所在 master 节点的 IP 和虚拟 IP:

  1.   # 配置 etcd 请求文件
  2.   [root@k8s-master1 work]# vim etcd-csr.json
  3.   {
  4.   "CN": "etcd",
  5.   "hosts": [
  6.   "127.0.0.1",
  7.   "192.168.78.150",
  8.   "192.168.78.151",
  9.   "192.168.78.152",
  10.   "192.168.78.155"
  11.   ],
  12.   "key": {
  13.   "algo": "rsa",
  14.   "size": 2048
  15.   },
  16.   "names": [{
  17.   "C": "CN",
  18.   "ST": "Hubei",
  19.   "L": "Wuhan",
  20.   "O": "k8s",
  21.   "OU": "system"
  22.   }]
  23.   }
  24.    
  25.   # 上述文件 hosts 字段中 IP 为所有 etcd 节点的集群内部通信IP,可以预留几个 ip,方便日后做扩容用
  26.    
  27.   # 生成 etcd 证书
  28.   [root@k8s-master1 work]# cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=kubernetes etcd-csr.json | cfssljson -bare etcd
  29.    
  30.   [root@k8s-master1 work]# ls
  31.   ca-config.json ca.csr ca-csr.json ca-key.pem ca.pem etcd.csr etcd-csr.json etcd-key.pem etcd.pem

4.5 部署 etcd 集群

4.5.1 下载 etcd 软件包

[root@k8s-master1 work]# wget https://github.com/etcd-io/etcd/releases/download/v3.5.2/etcd-v3.5.2-linux-amd64.tar.gz
 

4.5.2 安装 etcd 软件

  1.   [root@k8s-master1 work]# tar -zxvf etcd-v3.5.2-linux-amd64.tar.gz
  2.   [root@k8s-master1 work]# cp -p etcd-v3.5.2-linux-amd64/etcd* /usr/local/bin/

4.5.3 分发 etcd 软件

  1.   [root@k8s-master1 work]# scp etcd-v3.5.2-linux-amd64/etcd* k8s-master2:/usr/local/bin/
  2.   [root@k8s-master1 work]# scp etcd-v3.5.2-linux-amd64/etcd* k8s-master3:/usr/local/bin/

4.5.4 创建配置文件

  1.   [root@k8s-master1 work]# cat > /etc/etcd/etcd.conf <<"EOF"
  2.   #[Member]
  3.   ETCD_NAME="etcd1"
  4.   ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
  5.   ETCD_LISTEN_PEER_URLS="https://192.168.78.150:2380"
  6.   ETCD_LISTEN_CLIENT_URLS="https://192.168.78.150:2379,http://127.0.0.1:2379"
  7.    
  8.   #[Clustering]
  9.   ETCD_INITIAL_ADVERTISE_PEER_URLS="https://192.168.78.150:2380"
  10.   ETCD_ADVERTISE_CLIENT_URLS="https://192.168.78.150:2379"
  11.   ETCD_INITIAL_CLUSTER="etcd1=https://192.168.78.150:2380,etcd2=https://192.168.78.151:2380,etcd3=https://192.168.78.152:2380"
  12.   ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
  13.   ETCD_INITIAL_CLUSTER_STATE="new"
  14.   EOF

说明:

  • ETCD_NAME:节点名称,集群中唯一

  • ETCD_DATA_DIR:数据目录

  • ETCD_LISTEN_PEER_URLS:集群通信监听地址

  • ETCD_LISTEN_CLIENT_URLS:客户端访问监听地址

  • ETCD_INITIAL_ADVERTISE_PEER_URLS:集群通告地址

  • ETCD_ADVERTISE_CLIENT_URLS:客户端通告地址

  • ETCD_INITIAL_CLUSTER:集群节点地址

  • ETCD_INITIAL_CLUSTER_TOKEN:集群 Token

  • ETCD_INITIAL_CLUSTER_STATE:加入集群的当前状态,new 是新集群,existing 表示加入已有集群(扩容时用)

4.5.5 创建服务配置文件

  1.   #5. 创建服务配置文件
  2.   [root@k8s-master1 work]# cat > /usr/lib/systemd/system/etcd.service <<"EOF"
  3.   [Unit]
  4.   Description=Etcd Server
  5.   After=network.target
  6.   After=network-online.target
  7.   Wants=network-online.target
  8.    
  9.   [Service]
  10.   Type=notify
  11.   EnvironmentFile=-/etc/etcd/etcd.conf
  12.   WorkingDirectory=/var/lib/etcd/
  13.   ExecStart=/usr/local/bin/etcd \
  14.   --cert-file=/etc/etcd/ssl/etcd.pem \
  15.   --key-file=/etc/etcd/ssl/etcd-key.pem \
  16.   --trusted-ca-file=/etc/etcd/ssl/ca.pem \
  17.   --peer-cert-file=/etc/etcd/ssl/etcd.pem \
  18.   --peer-key-file=/etc/etcd/ssl/etcd-key.pem \
  19.   --peer-trusted-ca-file=/etc/etcd/ssl/ca.pem \
  20.   --peer-client-cert-auth \
  21.   --client-cert-auth
  22.   Restart=on-failure
  23.   RestartSec=5
  24.   LimitNOFILE=65536
  25.    
  26.   [Install]
  27.   WantedBy=multi-user.target
  28.   EOF
  29.    
  30.   [root@k8s-master1 work]# cp ca*.pem /etc/etcd/ssl/
  31.   [root@k8s-master1 work]# cp etcd*.pem /etc/etcd/ssl/
  32.   [root@k8s-master1 work]# ls /etc/etcd/ssl/
  33.   ca-key.pem ca.pem etcd-key.pem etcd.pem

4.5.6 同步 etcd 配置到集群其它 master 节点

  1.   # 传送服务配置文件后,需要手动修改 etcd 节点名称及 IP 地址
  2.   [root@k8s-master1 work]# for i in k8s-master2 k8s-master3;do scp /etc/etcd/etcd.conf $i:/etc/etcd/; done;
  3.    
  4.   # 传送证书文件
  5.   [root@k8s-master1 work]# for i in k8s-master2 k8s-master3; do scp /etc/etcd/ssl/* $i:/etc/etcd/ssl; done
  6.    
  7.   # 传送服务启动配置文件
  8.   [root@k8s-master1 work]# for i in k8s-master2 k8s-master3;do scp /usr/lib/systemd/system/etcd.service $i:/usr/lib/systemd/system/; done

k8s-master2 etcd.conf(修改 etcd 节点名称和 ip 即可):

  1.   [root@k8s-master2 ~]# vim /etc/etcd/etcd.conf
  2.   #[Member]
  3.   ETCD_NAME="etcd2"
  4.   ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
  5.   ETCD_LISTEN_PEER_URLS="https://192.168.78.151:2380"
  6.   ETCD_LISTEN_CLIENT_URLS="https://192.168.78.151:2379,http://127.0.0.1:2379"
  7.    
  8.   #[Clustering]
  9.   ETCD_INITIAL_ADVERTISE_PEER_URLS="https://192.168.78.151:2380"
  10.   ETCD_ADVERTISE_CLIENT_URLS="https://192.168.78.151:2379"
  11.   ETCD_INITIAL_CLUSTER="etcd1=https://192.168.78.150:2380,etcd2=https://192.168.78.151:2380,etcd3=https://192.168.78.152:2380"
  12.   ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
  13.   ETCD_INITIAL_CLUSTER_STATE="new"

k8s-master3 etcd.conf(修改 etcd 节点名称和 ip 即可):

  1.   [root@k8s-master3 ~]# vim /etc/etcd/etcd.conf
  2.   #[Member]
  3.   ETCD_NAME="etcd3"
  4.   ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
  5.   ETCD_LISTEN_PEER_URLS="https://192.168.78.152:2380"
  6.   ETCD_LISTEN_CLIENT_URLS="https://192.168.78.152:2379,http://127.0.0.1:2379"
  7.    
  8.   #[Clustering]
  9.   ETCD_INITIAL_ADVERTISE_PEER_URLS="https://192.168.78.152:2380"
  10.   ETCD_ADVERTISE_CLIENT_URLS="https://192.168.78.152:2379"
  11.   ETCD_INITIAL_CLUSTER="etcd1=https://192.168.78.150:2380,etcd2=https://192.168.78.151:2380,etcd3=https://192.168.78.152:2380"
  12.   ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
  13.   ETCD_INITIAL_CLUSTER_STATE="new"

4.5.7 启动 etcd 集群(三个 master 节点都需要操作)

        启动 etcd 服务的时候,先启动的 master1 的 etcd 服务,会一直卡住在启动的状态,然后接着再启动 master2 的 etcd,这样 master1 这个节点 etcd 才会正常起来(最好是三个节点同时一起执行):

  1.   systemctl daemon-reload
  2.   systemctl enable --now etcd.service
  3.   systemctl status etcd

4.5.8 验证集群状态

[root@k8s-master1 work]# ETCDCTL_API=3 /usr/local/bin/etcdctl --write-out=table --cacert=/etc/etcd/ssl/ca.pem --cert=/etc/etcd/ssl/etcd.pem --key=/etc/etcd/ssl/etcd-key.pem --endpoints=https://192.168.78.150:2379,https://192.168.78.151:2379,https://192.168.78.152:2379 endpoint health
 

  1.   # 检查 ETCD 数据库性能
  2.   ETCDCTL_API=3 /usr/local/bin/etcdctl --write-out=table --cacert=/etc/etcd/ssl/ca.pem --cert=/etc/etcd/ssl/etcd.pem --key=/etc/etcd/ssl/etcd-key.pem --endpoints=https://192.168.78.150:2379,https://192.168.78.151:2379,https://192.168.78.152:2379 check perf

ETCDCTL_API=3 /usr/local/bin/etcdctl --write-out=table --cacert=/etc/etcd/ssl/ca.pem --cert=/etc/etcd/ssl/etcd.pem --key=/etc/etcd/ssl/etcd-key.pem --endpoints=https://192.168.78.150:2379,https://192.168.78.151:2379,https://192.168.78.152:2379 member list
 

ETCDCTL_API=3 /usr/local/bin/etcdctl --write-out=table --cacert=/etc/etcd/ssl/ca.pem --cert=/etc/etcd/ssl/etcd.pem --key=/etc/etcd/ssl/etcd-key.pem --endpoints=https://192.168.78.150:2379,https://192.168.78.151:2379,https://192.168.78.152:2379 endpoint status
 

五、Kubernetes 组件部署

5.1 Kubernetes 软件包下载

k8s 各版本软件包下载官网:kubernetes/CHANGELOG at master · kubernetes/kubernetes · GitHub

找到需要安装的 k8s 版本(本次安装 k8s-v1.25 版本):

点击 Server Binaries:

 点击 adm64 版本下载即可:

  1.   # 在线下载安装包
  2.   [root@k8s-master1 ~]# wget https://storage.googleapis.com/kubernetes-release/release/v1.25.6/kubernetes-server-linux-amd64.tar.gz

5.2 Kubernetes 软件包安装

  1.   [root@k8s-master1 ~]# tar -zxvf kubernetes-server-linux-amd64.tar.gz
  2.   [root@k8s-master1 ~]# cd kubernetes/server/bin/
  3.   [root@k8s-master1 bin]# cp kube-apiserver kube-controller-manager kube-scheduler kubectl /usr/local/bin/

5.3 Kubernetes 软件分发

  1.   [root@k8s-master1 bin]# scp kube-apiserver kube-controller-manager kube-scheduler kubectl k8s-master2:/usr/local/bin/
  2.    
  3.   [root@k8s-master1 bin]# scp kube-apiserver kube-controller-manager kube-scheduler kubectl k8s-master3:/usr/local/bin/
  4.    
  5.   [root@k8s-master1 bin]# scp kubelet kube-proxy k8s-master1:/usr/local/bin
  6.    
  7.   [root@k8s-master1 bin]# scp kubelet kube-proxy k8s-master2:/usr/local/bin
  8.    
  9.   [root@k8s-master1 bin]# scp kubelet kube-proxy k8s-master3:/usr/local/bin
  10.    
  11.   [root@k8s-master1 bin]# scp kubelet kube-proxy k8s-node1:/usr/local/bin
  12.    
  13.   [root@k8s-master1 bin]# scp kubelet kube-proxy k8s-node2:/usr/local/bin

5.4 在集群节点上创建目录(所有节点)

  1.   mkdir -p /etc/kubernetes/
  2.   mkdir -p /etc/kubernetes/ssl
  3.   mkdir -p /var/log/kubernetes

5.5 部署 api-server

        apiserver:提供 k8s api,是整个系统的对外接口,提供资源操作的唯一入口,供客户端和其它组件调用,提供了 k8s 各类资源对象(pod、deployment、Service 等)的增删改查,是整个系统的数据总线和数据中心,并提供认证、授权、访问控制、API 注册和发现等机制,并将操作对象持久化到 etcd 中。相当于“营业厅”。

5.5.1 创建 apiserver 证书请求文件

  1.   [root@k8s-master1 work]# pwd
  2.   /data/work
  3.   [root@k8s-master1 work]# cat > kube-apiserver-csr.json << "EOF"
  4.   {
  5.   "CN": "kubernetes",
  6.   "hosts": [
  7.   "127.0.0.1",
  8.   "192.168.78.150",
  9.   "192.168.78.151",
  10.   "192.168.78.152",
  11.   "192.168.78.153",
  12.   "192.168.78.154",
  13.   "192.168.78.155",
  14.   "192.168.78.156",
  15.   "192.168.78.157",
  16.   "10.255.0.1",
  17.   "kubernetes",
  18.   "kubernetes.default",
  19.   "kubernetes.default.svc",
  20.   "kubernetes.default.svc.cluster",
  21.   "kubernetes.default.svc.cluster.local"
  22.   ],
  23.   "key": {
  24.   "algo": "rsa",
  25.   "size": 2048
  26.   },
  27.   "names": [
  28.   {
  29.   "C": "CN",
  30.   "ST": "Hubei",
  31.   "L": "Wuhan",
  32.   "O": "k8s",
  33.   "OU": "system"
  34.   }
  35.   ]
  36.   }
  37.   EOF

说明

        如果 hosts 字段不为空则需要指定授权使用该证书的 IP(含 VIP) 或域名列表。由于该证书被 kubernetes master 集群使用,需要将节点的 IP 都填上,为了方便后期扩容可以多写几个预留的 IP。同时还需要填写 service 网络的首个 IP(一般是 kube-apiserver 指定的 service-cluster-ip-range 网段的第一个 IP,如 10.255.0.1)。

5.5.2 生成 apiserver 证书及 token 文件

  1.   # 创建 token.csv 文件
  2.   [root@k8s-master1 work]# cat > token.csv << EOF
  3.   $(head -c 16 /dev/urandom | od -An -t x | tr -d ' '),kubelet-bootstrap,10001,"system:kubelet-bootstrap"
  4.   EOF
  5.    
  6.   [root@k8s-master1 work]# cat token.csv
  7.   78c75da77de755539a346161f05894b8,kubelet-bootstrap,10001,"system:kubelet-bootstrap"
  8.    
  9.   # 生成证书
  10.   [root@k8s-master1 work]# cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=kubernetes kube-apiserver-csr.json | cfssljson -bare kube-apiserver

说明:

  • 启动 TLS Bootstrapping 机制

        Master apiserver 启用 TLS 认证后,每个节点的 kubelet 组件都要使用由 apiserver 使用的 CA 签发的有效证书才能与 apiserver 通讯,当 Node 节点很多时,这种客户端证书颁发需要大量工作,同样也会增加集群扩展复杂度。

        为了简化流程,Kubernetes引入了TLS bootstraping 机制来自动颁发客户端证书,kubelet 会以一个低权限用户自动向 apiserver 申请证书,kubelet 的证书由 apiserver 动态签署。所以强烈建议在 Node 上使用这种方式,目前主要用于 kubelet,kube-proxy 还是由我们统一颁发一个证书。

        Bootstrap 是很多系统中都存在的程序,比如 Linux 的 bootstrap,bootstrap 一般都是作为预先配置在开启或者系统启动的时候加载,这可以用来生成一个指定环境。Kubernetes 的 kubelet 在启动时同样可以加载一个这样的配置文件,这个文件的内容类似如下形式:

  1.   apiVersion: v1
  2.   clusters: null
  3.   contexts:
  4.   - context:
  5.   cluster: kubernetes
  6.   user: kubelet-bootstrap
  7.   name: default
  8.   current-context: default
  9.   kind: Config
  10.   preferences: {}
  11.   users:
  12.   - name: kubelet-bootstrap
  13.   user: {}
  • TLS bootstrapping 具体引导过程

1.TLS 作用

        TLS 的作用就是对通讯加密,防止中间人窃听;同时如果证书不信任的话根本就无法与 apiserver 建立连接,更不用提有没有权限向 apiserver 请求指定内容。

2. RBAC 作用

        当 TLS 解决了通讯问题后,那么权限问题就应由 RBAC 解决(可以使用其他权限模型,如 ABAC);RBAC 中规定了一个用户或者用户组(subject)具有请求哪些 api 的权限;在配合 TLS 加密的时候,实际上 apiserver 读取客户端证书的 CN 字段作为用户名,读取 O 字段作为用户组。

        以上说明:第一,想要与 apiserver 通讯就必须采用由 apiserver CA 签发的证书,这样才能形成信任关系,建立 TLS 连接;第二,可以通过证书的 CN、O 字段来提供 RBAC 所需的用户与用户组。

  • kubelet 首次启动流程

        TLS bootstrapping 功能是让 kubelet 组件去 apiserver 申请证书,然后用于连接 apiserver;那么第一次启动时没有证书如何连接 apiserver ?

        在 apiserver 配置中指定了一个 token.csv 文件,该文件中是一个预设的用户配置;同时该用户的 Token 和由 apiserver 的 CA 签发的用户被写入了 kubelet 所使用的 bootstrap.kubeconfig 配置文件中;这样在首次请求时,kubelet 使用 bootstrap.kubeconfig 中被 apiserver CA 签发证书时信任的用户来与 apiserver 建立 TLS 通讯,使用 bootstrap.kubeconfig 中的用户 Token 来向apiserver 声明自己的 RBAC 授权身份。

token.csv 格式:

  1.   # 格式:token,用户名,UID,用户组
  2.   3940fd7fbb391d1b4d861ad17a1f0613,kubelet-bootstrap,10001,"system:kubelet-bootstrap"

        首次启动时,可能与遇到 kubelet 报 401 无权访问 apiserver 的错误;这是因为在默认情况下,kubelet 通过 bootstrap.kubeconfig 中的预设用户 Token 声明了自己的身份,然后创建 CSR 请求;但是不要忘记这个用户在我们不处理的情况下他没任何权限的,包括创建 CSR 请求;所以需要创建一个 ClusterRoleBinding,将预设用户 kubelet-bootstrap 与内置的 ClusterRole system:node-bootstrapper 绑定到一起,使其能够发起 CSR 请求。稍后安装 kubelet的时候演示。

5.5.3 创建 apiserver 服务配置文件

kube-apiserver 配置文件官方文档:kube-apiserver | Kubernetes

  1.   [root@k8s-master1 work]# cat > /etc/kubernetes/kube-apiserver.conf << "EOF"
  2.   KUBE_APISERVER_OPTS="--enable-admission-plugins=NamespaceLifecycle,NodeRestriction,LimitRanger,ServiceAccount,DefaultStorageClass,ResourceQuota \
  3.   --anonymous-auth=false \
  4.   --bind-address=192.168.78.150 \
  5.   --secure-port=6443 \
  6.   --advertise-address=192.168.78.150 \
  7.   --authorization-mode=Node,RBAC \
  8.   --runtime-config=api/all=true \
  9.   --enable-bootstrap-token-auth \
  10.   --service-cluster-ip-range=10.255.0.0/16 \
  11.   --token-auth-file=/etc/kubernetes/token.csv \
  12.   --service-node-port-range=30000-32767 \
  13.   --tls-cert-file=/etc/kubernetes/ssl/kube-apiserver.pem \
  14.   --tls-private-key-file=/etc/kubernetes/ssl/kube-apiserver-key.pem \
  15.   --client-ca-file=/etc/kubernetes/ssl/ca.pem \
  16.   --kubelet-client-certificate=/etc/kubernetes/ssl/kube-apiserver.pem \
  17.   --kubelet-client-key=/etc/kubernetes/ssl/kube-apiserver-key.pem \
  18.   --service-account-key-file=/etc/kubernetes/ssl/ca-key.pem \
  19.   --service-account-signing-key-file=/etc/kubernetes/ssl/ca-key.pem \
  20.   --service-account-issuer=api \
  21.   --etcd-cafile=/etc/etcd/ssl/ca.pem \
  22.   --etcd-certfile=/etc/etcd/ssl/etcd.pem \
  23.   --etcd-keyfile=/etc/etcd/ssl/etcd-key.pem \
  24.   --etcd-servers=https://192.168.78.150:2379,https://192.168.78.151:2379,https://192.168.78.152:2379 \
  25.   --allow-privileged=true \
  26.   --apiserver-count=3 \
  27.   --audit-log-maxage=30 \
  28.   --audit-log-maxbackup=3 \
  29.   --audit-log-maxsize=100 \
  30.   --audit-log-path=/var/log/kube-apiserver-audit.log \
  31.   --event-ttl=1h \
  32.   --alsologtostderr=true \
  33.   --logtostderr=false \
  34.   --log-dir=/var/log/kubernetes \
  35.   --v=4"
  36.   EOF

说明:

  • --logtostderr:启用日志

  • --v:日志等级

  • --log-dir:日志目录

  • --etcd-servers:etcd 集群地址

  • --bind-address:监听地址

  • --secure-port:https 安全端口

  • --advertise-address:集群通告地址

  • --allow-privileged:启用授权

  • --service-cluster-ip-range:Service 虚拟 IP 地址段

  • --enable-admission-plugins:准入控制模块

  • --authorization-mode:认证授权,启用 RBAC 授权和节点自管理

  • --enable-bootstrap-token-auth:启用 TLS bootstrap 机制

  • --token-auth-file:bootstrap token 文件

  • --service-node-port-range:Service nodeport 类型默认分配端口范围

  • --kubelet-client-xxx:apiserver 访问 kubelet 客户端证书

  • --tls-xxx-file:apiserver https 证书

  • --etcd-xxxfile:连接 Etcd 集群证书

  • -audit-log-xxx:审计日志

5.5.4 创建 apiserver 服务管理配置文件 

  1.   [root@k8s-master1 work]# cat > /usr/lib/systemd/system/kube-apiserver.service << "EOF"
  2.   [Unit]
  3.   Description=Kubernetes API Server
  4.   Documentation=https://github.com/kubernetes/kubernetes
  5.   After=etcd.service
  6.   Wants=etcd.service
  7.    
  8.   [Service]
  9.   EnvironmentFile=-/etc/kubernetes/kube-apiserver.conf
  10.   ExecStart=/usr/local/bin/kube-apiserver $KUBE_APISERVER_OPTS
  11.   Restart=on-failure
  12.   RestartSec=5
  13.   Type=notify
  14.   LimitNOFILE=65536
  15.    
  16.   [Install]
  17.   WantedBy=multi-user.target
  18.   EOF

5.5.5 同步文件到集群 master 节点 

  1.   [root@k8s-master1 work]# cp ca*.pem /etc/kubernetes/ssl/
  2.   [root@k8s-master1 work]# cp kube-apiserver*.pem /etc/kubernetes/ssl/
  3.   [root@k8s-master1 work]# cp token.csv /etc/kubernetes/
  4.    
  5.   [root@k8s-master1 work]# scp /etc/kubernetes/token.csv k8s-master2:/etc/kubernetes
  6.   [root@k8s-master1 work]# scp /etc/kubernetes/token.csv k8s-master3:/etc/kubernetes
  7.    
  8.   [root@k8s-master1 work]# scp /etc/kubernetes/ssl/kube-apiserver*.pem k8s-master2:/etc/kubernetes/ssl
  9.   [root@k8s-master1 work]# scp /etc/kubernetes/ssl/kube-apiserver*.pem k8s-master3:/etc/kubernetes/ssl
  10.    
  11.   [root@k8s-master1 work]# scp /etc/kubernetes/ssl/ca*.pem k8s-master2:/etc/kubernetes/ssl
  12.   [root@k8s-master1 work]# scp /etc/kubernetes/ssl/ca*.pem k8s-master3:/etc/kubernetes/ssl
  13.    
  14.   [root@k8s-master1 work]# scp /etc/kubernetes/kube-apiserver.conf k8s-master2:/etc/kubernetes/
  15.   [root@k8s-master1 work]# scp /etc/kubernetes/kube-apiserver.conf k8s-master3:/etc/kubernetes/
  16.    
  17.   [root@k8s-master1 work]# scp /usr/lib/systemd/system/kube-apiserver.service k8s-master2:/usr/lib/systemd/system/
  18.   [root@k8s-master1 work]# scp /usr/lib/systemd/system/kube-apiserver.service k8s-master3:/usr/lib/systemd/system/

注意: master2 和 master3 的配置文件 kube-apiserver.conf 中的 IP 地址需要修改为实际的本机 IP。

  1.   [root@k8s-master2 ~]# vim /etc/kubernetes/kube-apiserver.conf
  2.   KUBE_APISERVER_OPTS="--enable-admission-plugins=NamespaceLifecycle,NodeRestriction,LimitRanger,ServiceAccount,DefaultStorageClass,ResourceQuota \
  3.   --anonymous-auth=false \
  4.   --bind-address=192.168.78.151 \ # 修改此处
  5.   --secure-port=6443 \
  6.   --advertise-address=192.168.78.151 \ # 修改此处
  7.   --authorization-mode=Node,RBAC \
  8.   --runtime-config=api/all=true \
  9.   --enable-bootstrap-token-auth \
  10.   --service-cluster-ip-range=10.255.0.0/16 \
  11.   --token-auth-file=/etc/kubernetes/token.csv \
  12.   --service-node-port-range=30000-32767 \
  13.   --tls-cert-file=/etc/kubernetes/ssl/kube-apiserver.pem \
  14.   --tls-private-key-file=/etc/kubernetes/ssl/kube-apiserver-key.pem \
  15.   --client-ca-file=/etc/kubernetes/ssl/ca.pem \
  16.   --kubelet-client-certificate=/etc/kubernetes/ssl/kube-apiserver.pem \
  17.   --kubelet-client-key=/etc/kubernetes/ssl/kube-apiserver-key.pem \
  18.   --service-account-key-file=/etc/kubernetes/ssl/ca-key.pem \
  19.   --service-account-signing-key-file=/etc/kubernetes/ssl/ca-key.pem \
  20.   --service-account-issuer=api \
  21.   --etcd-cafile=/etc/etcd/ssl/ca.pem \
  22.   --etcd-certfile=/etc/etcd/ssl/etcd.pem \
  23.   --etcd-keyfile=/etc/etcd/ssl/etcd-key.pem \
  24.   --etcd-servers=https://192.168.78.150:2379,https://192.168.78.151:2379,https://192.168.78.152:2379 \
  25.   --allow-privileged=true \
  26.   --apiserver-count=3 \
  27.   --audit-log-maxage=30 \
  28.   --audit-log-maxbackup=3 \
  29.   --audit-log-maxsize=100 \
  30.   --audit-log-path=/var/log/kube-apiserver-audit.log \
  31.   --event-ttl=1h \
  32.   --alsologtostderr=true \
  33.   --logtostderr=false \
  34.   --log-dir=/var/log/kubernetes \
  35.   --v=4"
  36.    
  37.   [root@k8s-master3 ~]# vim /etc/kubernetes/kube-apiserver.conf
  38.   KUBE_APISERVER_OPTS="--enable-admission-plugins=NamespaceLifecycle,NodeRestriction,LimitRanger,ServiceAccount,DefaultStorageClass,ResourceQuota \
  39.   --anonymous-auth=false \
  40.   --bind-address=192.168.78.152 \ # 修改此处
  41.   --secure-port=6443 \
  42.   --advertise-address=192.168.78.152 \ # 修改此处
  43.   --authorization-mode=Node,RBAC \
  44.   --runtime-config=api/all=true \
  45.   --enable-bootstrap-token-auth \
  46.   --service-cluster-ip-range=10.255.0.0/16 \
  47.   --token-auth-file=/etc/kubernetes/token.csv \
  48.   --service-node-port-range=30000-32767 \
  49.   --tls-cert-file=/etc/kubernetes/ssl/kube-apiserver.pem \
  50.   --tls-private-key-file=/etc/kubernetes/ssl/kube-apiserver-key.pem \
  51.   --client-ca-file=/etc/kubernetes/ssl/ca.pem \
  52.   --kubelet-client-certificate=/etc/kubernetes/ssl/kube-apiserver.pem \
  53.   --kubelet-client-key=/etc/kubernetes/ssl/kube-apiserver-key.pem \
  54.   --service-account-key-file=/etc/kubernetes/ssl/ca-key.pem \
  55.   --service-account-signing-key-file=/etc/kubernetes/ssl/ca-key.pem \
  56.   --service-account-issuer=api \
  57.   --etcd-cafile=/etc/etcd/ssl/ca.pem \
  58.   --etcd-certfile=/etc/etcd/ssl/etcd.pem \
  59.   --etcd-keyfile=/etc/etcd/ssl/etcd-key.pem \
  60.   --etcd-servers=https://192.168.78.150:2379,https://192.168.78.151:2379,https://192.168.78.152:2379 \
  61.   --allow-privileged=true \
  62.   --apiserver-count=3 \
  63.   --audit-log-maxage=30 \
  64.   --audit-log-maxbackup=3 \
  65.   --audit-log-maxsize=100 \
  66.   --audit-log-path=/var/log/kube-apiserver-audit.log \
  67.   --event-ttl=1h \
  68.   --alsologtostderr=true \
  69.   --logtostderr=false \
  70.   --log-dir=/var/log/kubernetes \
  71.   --v=4"

5.5.6 启动 apiserver 服务

  1.   systemctl daemon-reload
  2.   systemctl enable --now kube-apiserver
  3.   systemctl status kube-apiserver
  4.    
  5.   # 测试
  6.   [root@k8s-master1 work]# curl --insecure https://192.168.78.150:6443/
  7.   {
  8.   "kind": "Status",
  9.   "apiVersion": "v1",
  10.   "metadata": {},
  11.   "status": "Failure",
  12.   "message": "Unauthorized",
  13.   "reason": "Unauthorized",
  14.   "code": 401
  15.   }
  16.    
  17.   [root@k8s-master1 work]# curl --insecure https://192.168.78.151:6443/
  18.   [root@k8s-master1 work]# curl --insecure https://192.168.78.152:6443/

上面看到 401,这个是正常的的状态,只是还没认证。

5.6 部署 kubectl

        Kubectl 是客户端工具,操作 k8s 资源的,如增删改查等。Kubectl 操作资源的时候,怎么知道连接到哪个集群呢?这时需要一个文件 /etc/kubernetes/admin.conf,kubectl 会根据这个文件的配置,去访问 k8s 资源。/etc/kubernetes/admin.con 文件记录了访问的 k8s 集群和用到的证书。

5.6.1 创建 kubectl 证书请求文件

  1.   [root@k8s-master1 work]# cat > admin-csr.json << "EOF"
  2.   {
  3.   "CN": "admin",
  4.   "hosts": [],
  5.   "key": {
  6.   "algo": "rsa",
  7.   "size": 2048
  8.   },
  9.   "names": [
  10.   {
  11.   "C": "CN",
  12.   "ST": "Hubei",
  13.   "L": "Wuhan",
  14.   "O": "system:masters",
  15.   "OU": "system"
  16.   }
  17.   ]
  18.   }
  19.   EOF

        说明:后续 kube-apiserver 使用 RBAC 对客户端(如 kubelet、kube-proxy、Pod)请求进行授权;kube-apiserver 预定义了一些 RBAC 使用的 RoleBindings,如 cluster-admin 将 Group system:masters 与 Role cluster-admin 绑定,该 Role 授予了调用 kube-apiserver 的所有 API 的权限;O 指定该证书的 Group 为 system:masters,kubelet 使用该证书访问 kube-apiserver 时 ,由于证书被 CA 签名,所以认证通过,同时由于证书用户组为经过预授权的 system:masters,所以被授予访问所有 API 的权限。

        注: 这个 admin 证书,是将来生成管理员用的 kube config 配置文件用的,现在我们一般建议使用 RBAC 来对 kubernetes 进行角色权限控制, kubernetes 将证书中的 CN 字段 作为 User, O 字段作为 Group; "O": "system:masters", 必须是 system:masters,否则后面 kubectl create clusterrolebinding 报错。

        证书 O 配置为 system:masters 在集群内部 cluster-admin 的 clusterrolebinding 将 system:masters 组和 cluster-admin clusterrole 绑定在一起。

5.6.2 生成证书文件

[root@k8s-master1 work]# cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=kubernetes admin-csr.json | cfssljson -bare admin
 

5.6.3 复制文件到指定目录

[root@k8s-master1 work]# cp admin*.pem /etc/kubernetes/ssl/
 

5.6.4 生成 kubeconfig 配置文件

        kubeconfig 为 kubectl 的配置文件,包含访问 apiserver 的所有信息,如 apiserver 地址、CA 证书和自身使用的证书(这里如果报错找不到 kubeconfig 路径,请手动复制到相应路径下,没有则忽略)。

  1.   # 设置集群参数
  2.   [root@k8s-master1 work]# kubectl config set-cluster kubernetes --certificate-authority=ca.pem --embed-certs=true --server=https://192.168.78.150:6443 --kubeconfig=kube.config
  3.    
  4.   # 设置客户端认证参数
  5.   [root@k8s-master1 work]# kubectl config set-credentials admin --client-certificate=admin.pem --client-key=admin-key.pem --embed-certs=true --kubeconfig=kube.config
  6.    
  7.   # 设置上下文参数
  8.   [root@k8s-master1 work]# kubectl config set-context kubernetes --cluster=kubernetes --user=admin --kubeconfig=kube.config
  9.    
  10.   # 设置当前上下文
  11.   [root@k8s-master1 work]# kubectl config use-context kubernetes --kubeconfig=kube.config

5.6.5 准备 kubectl 配置文件并进行角色绑定

  1.   [root@k8s-master1 work]# mkdir ~/.kube
  2.   [root@k8s-master1 work]# cp kube.config ~/.kube/config
  3.    
  4.   # 授权 kubernetes 证书访问 kubelet api 权限
  5.   [root@k8s-master1 work]# kubectl create clusterrolebinding kube-apiserver:kubelet-apis --clusterrole=system:kubelet-api-admin --user kubernetes --kubeconfig=/root/.kube/config

5.6.6 查看集群状态

  1.   # 查看集群信息
  2.   [root@k8s-master1 ~]# kubectl cluster-info
  3.   Kubernetes control plane is running at https://192.168.78.150:6443
  4.    
  5.   To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.
  6.    
  7.   # 查看集群组件状态
  8.   [root@k8s-master1 ~]# kubectl get componentstatuses
  9.   Warning: v1 ComponentStatus is deprecated in v1.19+
  10.   NAME STATUS MESSAGE ERROR
  11.   scheduler Unhealthy Get "https://127.0.0.1:10259/healthz": dial tcp 127.0.0.1:10259: connect: connection refused
  12.   controller-manager Unhealthy Get "https://127.0.0.1:10257/healthz": dial tcp 127.0.0.1:10257: connect: connection refused
  13.   etcd-0 Healthy {"health":"true","reason":""}
  14.   etcd-1 Healthy {"health":"true","reason":""}
  15.   etcd-2 Healthy {"health":"true","reason":""}
  16.    
  17.   # 查看命名空间中资源对象
  18.   [root@k8s-master1 ~]# kubectl get all --all-namespaces
  19.   NAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  20.   default service/kubernetes ClusterIP 10.255.0.1 <none> 443/TCP 16h

5.6.7 同步 kubectl 配置文件到集群其它 master 节点

  1.   [root@k8s-master2 ~]# mkdir /root/.kube
  2.   [root@k8s-master3 ~]# mkdir /root/.kube
  3.    
  4.   [root@k8s-master1 ~]# scp /root/.kube/config k8s-master2:/root/.kube/
  5.   [root@k8s-master1 ~]# scp /root/.kube/config k8s-master3:/root/.kube/

5.6.8 配置 kubectl 命令补全(可选)

Kubectl 自动补全官方文档:kubectl 备忘单 | Kubernetes

  1.   # 注意:在三个 master 节点上执行
  2.   # 在 bash 中设置当前 shell 的自动补全,要先安装 bash-completion 包
  3.   yum install -y bash-completion
  4.   source /usr/share/bash-completion/bash_completion
  5.    
  6.   # 在你的 bash shell 中永久地添加自动补全
  7.   source <(kubectl completion bash)
  8.   echo "source <(kubectl completion bash)" >> ~/.bashrc

5.7 部署 kube-controller-manager

        controller-manager:作为集群内部的管理控制中心,负责集群内的 Node、Pod 副本、服务端点(Endpoint)、命名室间(Namespace)、服务账号(ServiceAccount)、资源定额(ResourceQuota) 的管理,当某个 Node 意外宕机时,Controller Manager 会及时发现并执行自动化修复流程,确保集群始终处于预期的工作状态。与 apiserver 交互,实时监控和维护 k8s 集群的控制器的健康情况,对有故障的进行处理和恢复,相当于“大总管”。

5.7.1 创建 kube-controller-manager 证书请求文件 

  1.   [root@k8s-master1 work]# pwd
  2.   /data/work
  3.    
  4.   [root@k8s-master1 work]# cat > kube-controller-manager-csr.json << "EOF"
  5.   {
  6.   "CN": "system:kube-controller-manager",
  7.   "key": {
  8.   "algo": "rsa",
  9.   "size": 2048
  10.   },
  11.   "hosts": [
  12.   "127.0.0.1",
  13.   "192.168.78.150",
  14.   "192.168.78.151",
  15.   "192.168.78.152",
  16.   "192.168.78.155"
  17.   ],
  18.   "names": [
  19.   {
  20.   "C": "CN",
  21.   "ST": "HuBei",
  22.   "L": "Wuhan",
  23.   "O": "system:kube-controller-manager",
  24.   "OU": "system"
  25.   }
  26.   ]
  27.   }
  28.   EOF

说明

  • hosts 列表包含所有 kube-controller-manager 节点 IP;

  • CN 为 system:kube-controller-manager;

  • O 为 system:kube-controller-manager,kubernetes 内置的 ClusterRoleBindings system:kube-controller-manager 赋予 kube-controller-manager 工作所需的权限。

5.7.2 创建 kube-controller-manager 证书文件

[root@k8s-master1 work]# cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=kubernetes kube-controller-manager-csr.json | cfssljson -bare kube-controller-manager
 

5.7.3 创建 kube-controller-manager 的 kube-controller-manager.kubeconfig

  1.   # 设置集群参数
  2.   [root@k8s-master1 work]# kubectl config set-cluster kubernetes --certificate-authority=ca.pem --embed-certs=true --server=https://192.168.78.150:6443 --kubeconfig=kube-controller-manager.kubeconfig
  3.    
  4.   # 设置客户端认证参数
  5.   [root@k8s-master1 work]# kubectl config set-credentials system:kube-controller-manager --client-certificate=kube-controller-manager.pem --client-key=kube-controller-manager-key.pem --embed-certs=true --kubeconfig=kube-controller-manager.kubeconfig
  6.    
  7.   # 设置上下文参数
  8.   [root@k8s-master1 work]# kubectl config set-context system:kube-controller-manager --cluster=kubernetes --user=system:kube-controller-manager --kubeconfig=kube-controller-manager.kubeconfig
  9.    
  10.   # 设置当前上下文
  11.   [root@k8s-master1 work]# kubectl config use-context system:kube-controller-manager --kubeconfig=kube-controller-manager.kubeconfig

5.7.4 创建 kube-controller-manager 配置文件 

kube-controller-manager 配置文件官方文档:kube-controller-manager | Kubernetes

  1.   [root@k8s-master1 work]# cat > kube-controller-manager.conf << "EOF"
  2.   KUBE_CONTROLLER_MANAGER_OPTS=" \
  3.   --secure-port=10257 \
  4.   --bind-address=127.0.0.1 \
  5.   --kubeconfig=/etc/kubernetes/kube-controller-manager.kubeconfig \
  6.   --service-cluster-ip-range=10.255.0.0/16 \
  7.   --cluster-name=kubernetes \
  8.   --cluster-signing-cert-file=/etc/kubernetes/ssl/ca.pem \
  9.   --cluster-signing-key-file=/etc/kubernetes/ssl/ca-key.pem \
  10.   --allocate-node-cidrs=true \
  11.   --cluster-cidr=10.0.0.0/16 \
  12.   --root-ca-file=/etc/kubernetes/ssl/ca.pem \
  13.   --service-account-private-key-file=/etc/kubernetes/ssl/ca-key.pem \
  14.   --leader-elect=true \
  15.   --feature-gates=RotateKubeletServerCertificate=true \
  16.   --controllers=*,bootstrapsigner,tokencleaner \
  17.   --horizontal-pod-autoscaler-sync-period=10s \
  18.   --tls-cert-file=/etc/kubernetes/ssl/kube-controller-manager.pem \
  19.   --tls-private-key-file=/etc/kubernetes/ssl/kube-controller-manager-key.pem \
  20.   --use-service-account-credentials=true \
  21.   --alsologtostderr=true \
  22.   --logtostderr=false \
  23.   --log-dir=/var/log/kubernetes \
  24.   --v=2"
  25.   EOF
  • –secure-port=10257、–bind-address=127.0.0.1: 在本地网络接口监听 10257 端口的 https /metrics 请求;
  • –kubeconfig:指定 kubeconfig 文件路径,kube-controller-manager 使用它连接和验证 kube-apiserver;
  • –authentication-kubeconfig 和 --authorization-kubeconfig:kube-controller-manager 使用它连接 apiserver,对 client 的请求进行认证和授权。kube-controller-manager 不再使用 --tls-ca-file 对请求 https metrics 的 Client 证书进行校验。如果没有配置这两个 kubeconfig 参数,则 client 连接 kube-controller-manager https 端口的请求会被拒绝(提示权限不足)。
  • –cluster-signing-*-file:签名 TLS Bootstrap 创建的证书;
  • –experimental-cluster-signing-duration:指定 TLS Bootstrap 证书的有效期;
  • –root-ca-file:放置到容器 ServiceAccount 中的 CA 证书,用来对 kube-apiserver 的证书进行校验;
  • –service-account-private-key-file:签名 ServiceAccount 中 Token 的私钥文件,必须和 kube-apiserver 的 --service-account-key-file 指定的公钥文件配对使用;
  • –service-cluster-ip-range :指定 Service Cluster IP 网段,必须和 kube-apiserver 中的同名参数一致;
  • –leader-elect=true:集群运行模式,启用选举功能;被选为 leader 的节点负责处理工作,其它节点为阻塞状态;
  • –controllers=*,bootstrapsigner,tokencleaner:启用的控制器列表,tokencleaner 用于自动清理过期的 Bootstrap token;
  • –horizontal-pod-autoscaler-*:custom metrics 相关参数,支持 autoscaling/v2alpha1;
  • –tls-cert-file、–tls-private-key-file:使用 https 输出 metrics 时使用的 Server 证书和秘钥;
  • –use-service-account-credentials=true: kube-controller-manager 中各 controller 使用 serviceaccount 访问 kube-apiserver。

5.7.5 创建服务启动文件

  1.   [root@k8s-master1 work]# cat > /usr/lib/systemd/system/kube-controller-manager.service << "EOF"
  2.   [Unit]
  3.   Description=Kubernetes Controller Manager
  4.   Documentation=https://github.com/kubernetes/kubernetes
  5.    
  6.   [Service]
  7.   EnvironmentFile=-/etc/kubernetes/kube-controller-manager.conf
  8.   ExecStart=/usr/local/bin/kube-controller-manager $KUBE_CONTROLLER_MANAGER_OPTS
  9.   Restart=on-failure
  10.   RestartSec=5
  11.    
  12.   [Install]
  13.   WantedBy=multi-user.target
  14.   EOF

5.7.6 同步文件到集群 master 节点

  1.   [root@k8s-master1 work]# cp kube-controller-manager*.pem /etc/kubernetes/ssl/
  2.   [root@k8s-master1 work]# cp kube-controller-manager.kubeconfig /etc/kubernetes/
  3.   [root@k8s-master1 work]# cp kube-controller-manager.conf /etc/kubernetes/
  4.    
  5.   [root@k8s-master1 work]# scp kube-controller-manager*.pem k8s-master2:/etc/kubernetes/ssl/
  6.   [root@k8s-master1 work]# scp kube-controller-manager*.pem k8s-master3:/etc/kubernetes/ssl/
  7.    
  8.   [root@k8s-master1 work]# scp kube-controller-manager.kubeconfig kube-controller-manager.conf k8s-master2:/etc/kubernetes/
  9.   [root@k8s-master1 work]# scp kube-controller-manager.kubeconfig kube-controller-manager.conf k8s-master3:/etc/kubernetes/
  10.    
  11.   [root@k8s-master1 work]# scp /usr/lib/systemd/system/kube-controller-manager.service k8s-master2:/usr/lib/systemd/system/
  12.   [root@k8s-master1 work]# scp /usr/lib/systemd/system/kube-controller-manager.service k8s-master3:/usr/lib/systemd/system/

5.7.7 启动服务(在三个 master 执行)

  1.   systemctl daemon-reload
  2.   systemctl enable --now kube-controller-manager
  3.   systemctl status kube-controller-manager
  4.    
  5.   [root@k8s-master1 work]# kubectl get componentstatuses
  6.   Warning: v1 ComponentStatus is deprecated in v1.19+
  7.   NAME STATUS MESSAGE ERROR
  8.   scheduler Unhealthy Get "https://127.0.0.1:10259/healthz": dial tcp 127.0.0.1:10259: connect: connection refused
  9.   etcd-0 Healthy {"health":"true","reason":""}
  10.   etcd-2 Healthy {"health":"true","reason":""}
  11.   controller-manager Healthy ok
  12.   etcd-1 Healthy {"health":"true","reason":""}

5.8 部署 kube-scheduler

        scheduler:负责 k8s 集群中 pod 调度 , scheduler 通过与 apiserver 交互监听到创建 Pod 副本的信息后,它会检索所有符合该 Pod 要求的工作节点列表,开始执行 Pod 调度逻辑。调度成功后将 Pod 绑定到目标节点上,相当于“调度室”。

5.8.1 创建 kube-scheduler 证书请求文件

  1.   [root@k8s-master1 work]# cat > kube-scheduler-csr.json << "EOF"
  2.   {
  3.   "CN": "system:kube-scheduler",
  4.   "hosts": [
  5.   "127.0.0.1",
  6.   "192.168.78.150",
  7.   "192.168.78.151",
  8.   "192.168.78.152",
  9.   "192.168.78.155"
  10.   ],
  11.   "key": {
  12.   "algo": "rsa",
  13.   "size": 2048
  14.   },
  15.   "names": [
  16.   {
  17.   "C": "CN",
  18.   "ST": "Hubei",
  19.   "L": "Wuhan",
  20.   "O": "system:kube-scheduler",
  21.   "OU": "system"
  22.   }
  23.   ]
  24.   }
  25.   EOF

注:

  • hosts 列表包含所有 kube-scheduler 节点 IP 和 VIP;

  • CN 为 system:kube-scheduler;

  • O 为 system:kube-scheduler,kubernetes 内置的 ClusterRoleBindings system:kube-scheduler 将赋予 kube-scheduler 工作所需的权限。

5.8.2 生成 kube-scheduler 证书 

[root@k8s-master1 work]# cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=kubernetes kube-scheduler-csr.json | cfssljson -bare kube-scheduler
 

5.8.3 创建 kube-scheduler 的 kubeconfig

  1.   # 设置集群参数
  2.   [root@k8s-master1 work]# kubectl config set-cluster kubernetes --certificate-authority=ca.pem --embed-certs=true --server=https://192.168.78.150:6443 --kubeconfig=kube-scheduler.kubeconfig
  3.    
  4.   # 设置客户端认证参数
  5.   [root@k8s-master1 work]# kubectl config set-credentials system:kube-scheduler --client-certificate=kube-scheduler.pem --client-key=kube-scheduler-key.pem --embed-certs=true --kubeconfig=kube-scheduler.kubeconfig
  6.    
  7.   # 设置上下文参数
  8.   [root@k8s-master1 work]# kubectl config set-context system:kube-scheduler --cluster=kubernetes --user=system:kube-scheduler --kubeconfig=kube-scheduler.kubeconfig
  9.    
  10.   # 设置当前上下文
  11.   [root@k8s-master1 work]# kubectl config use-context system:kube-scheduler --kubeconfig=kube-scheduler.kubeconfig

5.8.4 创建服务配置文件

kube-scheduler 配置文件官方文档:kube-scheduler | Kubernetes

  1.   [root@k8s-master1 work]# cat > kube-scheduler.conf << "EOF"
  2.   KUBE_SCHEDULER_OPTS=" \
  3.   --kubeconfig=/etc/kubernetes/kube-scheduler.kubeconfig \
  4.   --leader-elect=true \
  5.   --alsologtostderr=true \
  6.   --logtostderr=false \
  7.   --log-dir=/var/log/kubernetes \
  8.   --v=2"
  9.   EOF

5.8.5 创建服务启动配置文件 

  1.   [root@k8s-master1 work]# cat > /usr/lib/systemd/system/kube-scheduler.service << "EOF"
  2.   [Unit]
  3.   Description=Kubernetes Scheduler
  4.   Documentation=https://github.com/kubernetes/kubernetes
  5.    
  6.   [Service]
  7.   EnvironmentFile=-/etc/kubernetes/kube-scheduler.conf
  8.   ExecStart=/usr/local/bin/kube-scheduler $KUBE_SCHEDULER_OPTS
  9.   Restart=on-failure
  10.   RestartSec=5
  11.    
  12.   [Install]
  13.   WantedBy=multi-user.target
  14.   EOF

5.8.6 同步文件至集群 master 节点

  1.   [root@k8s-master1 work]# cp kube-scheduler*.pem /etc/kubernetes/ssl/
  2.   [root@k8s-master1 work]# cp kube-scheduler.kubeconfig /etc/kubernetes/
  3.   [root@k8s-master1 work]# cp kube-scheduler.conf /etc/kubernetes/
  4.    
  5.   [root@k8s-master1 work]# scp kube-scheduler*.pem k8s-master2:/etc/kubernetes/ssl/
  6.   [root@k8s-master1 work]# scp kube-scheduler*.pem k8s-master3:/etc/kubernetes/ssl/
  7.    
  8.   [root@k8s-master1 work]# scp kube-scheduler.kubeconfig kube-scheduler.conf k8s-master2:/etc/kubernetes/
  9.   [root@k8s-master1 work]# scp kube-scheduler.kubeconfig kube-scheduler.conf k8s-master3:/etc/kubernetes/
  10.    
  11.   [root@k8s-master1 work]# scp /usr/lib/systemd/system/kube-scheduler.service k8s-master2:/usr/lib/systemd/system/
  12.   [root@k8s-master1 work]# scp /usr/lib/systemd/system/kube-scheduler.service k8s-master3:/usr/lib/systemd/system/

5.8.7 启动服务

  1.   systemctl daemon-reload
  2.   systemctl enable --now kube-scheduler
  3.   systemctl status kube-scheduler
  4.    
  5.   [root@k8s-master1 work]# kubectl get componentstatuses
  6.   Warning: v1 ComponentStatus is deprecated in v1.19+
  7.   NAME STATUS MESSAGE ERROR
  8.   scheduler Healthy ok
  9.   controller-manager Healthy ok
  10.   etcd-0 Healthy {"health":"true","reason":""}
  11.   etcd-2 Healthy {"health":"true","reason":""}
  12.   etcd-1 Healthy {"health":"true","reason":""}

六、工作节点(worker node)部署

6.1 部署 kubelet(在 k8s-master1 上操作)

        kubelet:每个 Node 节点上的 kubelet 定期就会调用 API Server 的 REST 接口报告自身状态,API Server 接收这些信息后,将节点状态信息更新到 etcd 中。kubelet 也通过 API Server 监听 Pod 信息,从而对 Node 机器上的 POD 进行管理,如创建、删除、更新 Pod。

6.1.1 创建 kubelet-bootstrap.kubeconfig

  1.   [root@k8s-master1 work]# BOOTSTRAP_TOKEN=$(awk -F "," '{print $1}' /etc/kubernetes/token.csv)
  2.    
  3.   [root@k8s-master1 work]# kubectl config set-cluster kubernetes --certificate-authority=ca.pem --embed-certs=true --server=https://192.168.78.150:6443 --kubeconfig=kubelet-bootstrap.kubeconfig
  4.    
  5.   [root@k8s-master1 work]# kubectl config set-credentials kubelet-bootstrap --token=${BOOTSTRAP_TOKEN} --kubeconfig=kubelet-bootstrap.kubeconfig
  6.    
  7.   [root@k8s-master1 work]# kubectl config set-context default --cluster=kubernetes --user=kubelet-bootstrap --kubeconfig=kubelet-bootstrap.kubeconfig
  8.    
  9.   [root@k8s-master1 work]# kubectl config use-context default --kubeconfig=kubelet-bootstrap.kubeconfig
  10.    
  11.   # 添加权限
  12.   [root@k8s-master1 work]# kubectl create clusterrolebinding kubelet-bootstrap --clusterrole=system:node-bootstrapper --user=kubelet-bootstrap

6.2.2 创建 kubelet 配置文件

  1.   # "cgroupDriver": "systemd" 要和 docker 的驱动一致。address 替换为自己 master1 的 IP 地址。
  2.    
  3.   [root@k8s-master1 work]# cat > kubelet.json << "EOF"
  4.   {
  5.   "kind": "KubeletConfiguration",
  6.   "apiVersion": "kubelet.config.k8s.io/v1beta1",
  7.   "authentication": {
  8.   "x509": {
  9.   "clientCAFile": "/etc/kubernetes/ssl/ca.pem"
  10.   },
  11.   "webhook": {
  12.   "enabled": true,
  13.   "cacheTTL": "2m0s"
  14.   },
  15.   "anonymous": {
  16.   "enabled": false
  17.   }
  18.   },
  19.   "authorization": {
  20.   "mode": "Webhook",
  21.   "webhook": {
  22.   "cacheAuthorizedTTL": "5m0s",
  23.   "cacheUnauthorizedTTL": "30s"
  24.   }
  25.   },
  26.   "address": "192.168.78.150",
  27.   "port": 10250,
  28.   "readOnlyPort": 10255,
  29.   "cgroupDriver": "systemd",
  30.   "hairpinMode": "promiscuous-bridge",
  31.   "serializeImagePulls": false,
  32.   "clusterDomain": "cluster.local.",
  33.   "clusterDNS": ["10.255.0.2"]
  34.   }
  35.   EOF

6.1.3 创建 kubelet 服务启动管理文件

kubelet 配置官方文档:kubelet | Kubernetes

  1.   [root@k8s-master1 work]# cat > /usr/lib/systemd/system/kubelet.service << "EOF"
  2.   [Unit]
  3.   Description=Kubernetes Kubelet
  4.   Documentation=https://github.com/kubernetes/kubernetes
  5.   After=docker.service
  6.   Requires=docker.service
  7.    
  8.   [Service]
  9.   WorkingDirectory=/var/lib/kubelet
  10.   ExecStart=/usr/local/bin/kubelet \
  11.   --bootstrap-kubeconfig=/etc/kubernetes/kubelet-bootstrap.kubeconfig \
  12.   --cert-dir=/etc/kubernetes/ssl \
  13.   --kubeconfig=/etc/kubernetes/kubelet.kubeconfig \
  14.   --config=/etc/kubernetes/kubelet.json \
  15.   --container-runtime-endpoint=unix:///run/containerd/containerd.sock \
  16.   --pod-infra-container-image=registry.aliyuncs.com/google_containers/pause:3.2 \
  17.   --alsologtostderr=true \
  18.   --logtostderr=false \
  19.   --log-dir=/var/log/kubernetes \
  20.   --v=2
  21.   Restart=on-failure
  22.   RestartSec=5
  23.    
  24.   [Install]
  25.   WantedBy=multi-user.target
  26.   EOF

注:

  • –network-plugin:启用 CNI

  • –kubeconfig:用于连接 apiserver

  • –bootstrap-kubeconfig:首次启动向 apiserver 申请证书

  • –config:配置参数文件

  • –cert-dir:kubelet 证书生成目录

  • –pod-infra-container-image:管理 Pod 网络容器的镜像地址 

6.1.4 同步文件到集群节点

        如果不想 master 节点也安装 kubelet 组件,可以只给 node 节点传送文件,只在 node 节点安装也可。

  1.   [root@k8s-master1 work]# cp kubelet-bootstrap.kubeconfig kubelet.json /etc/kubernetes/
  2.    
  3.   [root@k8s-master1 work]# for i in k8s-master2 k8s-master3 k8s-node1 k8s-node2;do scp /etc/kubernetes/kubelet-bootstrap.kubeconfig /etc/kubernetes/kubelet.json $i:/etc/kubernetes/;done
  4.    
  5.   [root@k8s-master1 work]# for i in k8s-master2 k8s-master3 k8s-node1 k8s-node2;do scp ca.pem $i:/etc/kubernetes/ssl/;done
  6.    
  7.   [root@k8s-master1 work]# for i in k8s-master2 k8s-master3 k8s-node1 k8s-node2;do scp /usr/lib/systemd/system/kubelet.service $i:/usr/lib/systemd/system/;done

        注意:传送后到各个节点后的 kubelet.json 中 address 需要自己去手动修改为当前主机 IP 地址。 

6.1.5 创建目录及启动服务(所有节点执行)

  1.   mkdir -p /var/lib/kubelet
  2.    
  3.   systemctl daemon-reload
  4.   systemctl enable --now kubelet
  5.   systemctl status kubelet

6.1.6 验证集群状态

        可以看到一个各节点发送了 CSR 请求,如果状态是 Pending,则需要 Approve 一下 bootstrap 请求:

  1.   [root@k8s-master1 work]# kubectl get csr
  2.   NAME AGE SIGNERNAME REQUESTOR REQUESTEDDURATION CONDITION
  3.   node-csr-ELAsquFkboi3FVWEvtjHcYPhZkroHFZvtw0HSfmQcU8 22s kubernetes.io/kube-apiserver-client-kubelet kubelet-bootstrap <none> Pending
  4.   node-csr-IHAdsHaotk8Z3_tW7rYvSmeKGdXqbPB0m98YdwfBs9Y 22s kubernetes.io/kube-apiserver-client-kubelet kubelet-bootstrap <none> Pending
  5.   node-csr-RH7808N9oudntus38bSsUuhw5xxInRlSyzBtLPQzlf8 22s kubernetes.io/kube-apiserver-client-kubelet kubelet-bootstrap <none> Pending
  6.   node-csr-X9GbXTxND15dH5bH1Fe-Qq9XMdl084qlHo8YpNeW5fw 22s kubernetes.io/kube-apiserver-client-kubelet kubelet-bootstrap <none> Pending
  7.   node-csr-Z0KsK-FCseOEi1UfrCIkzC-HtxBijchx0tnS4eIpq8g 22s kubernetes.io/kube-apiserver-client-kubelet kubelet-bootstrap <none> Pending
  8.    
  9.   # approve 方法:
  10.   [root@k8s-master1 work]# kubectl certificate approve node-csr-ELAsquFkboi3FVWEvtjHcYPhZkroHFZvtw0HSfmQcU8
  11.   [root@k8s-master1 work]# kubectl certificate approve node-csr-IHAdsHaotk8Z3_tW7rYvSmeKGdXqbPB0m98YdwfBs9Y
  12.   [root@k8s-master1 work]# kubectl certificate approve node-csr-RH7808N9oudntus38bSsUuhw5xxInRlSyzBtLPQzlf8
  13.   [root@k8s-master1 work]# kubectl certificate approve node-csr-X9GbXTxND15dH5bH1Fe-Qq9XMdl084qlHo8YpNeW5fw
  14.   [root@k8s-master1 work]# kubectl certificate approve node-csr-Z0KsK-FCseOEi1UfrCIkzC-HtxBijchx0tnS4eIpq8g
  15.    
  16.   # 再次查看状态是否变为 Approved,Issued
  17.   [root@k8s-master1 work]# kubectl get csr
  18.    
  19.   [root@k8s-master1 work]# kubectl get nodes
  20.   NAME STATUS ROLES AGE VERSION
  21.   k8s-master1 NotReady <none> 94s v1.25.6
  22.   k8s-master2 NotReady <none> 72s v1.25.6
  23.   k8s-master3 NotReady <none> 84s v1.25.6
  24.   k8s-node1 NotReady <none> 2m4s v1.25.6
  25.   k8s-node2 NotReady <none> 61s v1.25.6

注意:STATUS 是 NotReady 表示还没有安装网络插件。

6.2 部署 kube-proxy

        kube-proxy:提供网络代理和负载均衡,是实现 service 的通信与负载均衡机制的重要组件,kube-proxy 负责为 Pod 创建代理服务,从 apiserver 获取所有 service 信息,并根据 service 信息创建代理服务,实现 service 到 Pod 的请求路由和转发,从而实现 K8s 层级的虚拟转发网络,将到 service 的请求转发到后端的 pod 上。

6.2.1 创建 kube-proxy 证书请求文件

  1.   [root@k8s-master1 work]# cat > kube-proxy-csr.json << "EOF"
  2.   {
  3.   "CN": "system:kube-proxy",
  4.   "key": {
  5.   "algo": "rsa",
  6.   "size": 2048
  7.   },
  8.   "names": [
  9.   {
  10.   "C": "CN",
  11.   "ST": "Hubei",
  12.   "L": "Wuhan",
  13.   "O": "k8s",
  14.   "OU": "system"
  15.   }
  16.   ]
  17.   }
  18.   EOF

6.2.2 生成证书

[root@k8s-master1 work]# cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=kubernetes kube-proxy-csr.json | cfssljson -bare kube-proxy
 

6.2.3 创建 kubeconfig 文件

  1.   [root@k8s-master1 work]# kubectl config set-cluster kubernetes --certificate-authority=ca.pem --embed-certs=true --server=https://192.168.78.150:6443 --kubeconfig=kube-proxy.kubeconfig
  2.    
  3.   [root@k8s-master1 work]# kubectl config set-credentials kube-proxy --client-certificate=kube-proxy.pem --client-key=kube-proxy-key.pem --embed-certs=true --kubeconfig=kube-proxy.kubeconfig
  4.    
  5.   [root@k8s-master1 work]# kubectl config set-context default --cluster=kubernetes --user=kube-proxy --kubeconfig=kube-proxy.kubeconfig
  6.    
  7.   [root@k8s-master1 work]# kubectl config use-context default --kubeconfig=kube-proxy.kubeconfig

6.2.4 创建服务配置文件

  1.   [root@k8s-master1 work]# cat > kube-proxy.yaml << "EOF"
  2.   apiVersion: kubeproxy.config.k8s.io/v1alpha1
  3.   bindAddress: 192.168.78.150
  4.   clientConnection:
  5.   kubeconfig: /etc/kubernetes/kube-proxy.kubeconfig
  6.   clusterCIDR: 192.168.78.0/24
  7.   healthzBindAddress: 192.168.78.150:10256
  8.   kind: KubeProxyConfiguration
  9.   metricsBindAddress: 192.168.78.150:10249
  10.   mode: "ipvs"
  11.   EOF

6.2.5 创建服务启动管理文件

  1.   [root@k8s-master1 work]# cat > /usr/lib/systemd/system/kube-proxy.service << "EOF"
  2.   [Unit]
  3.   Description=Kubernetes Kube-Proxy Server
  4.   Documentation=https://github.com/kubernetes/kubernetes
  5.   After=network.target
  6.    
  7.   [Service]
  8.   WorkingDirectory=/var/lib/kube-proxy
  9.   ExecStart=/usr/local/bin/kube-proxy \
  10.   --config=/etc/kubernetes/kube-proxy.yaml \
  11.   --alsologtostderr=true \
  12.   --logtostderr=false \
  13.   --log-dir=/var/log/kubernetes \
  14.   --v=2
  15.   Restart=on-failure
  16.   RestartSec=5
  17.   LimitNOFILE=65536
  18.    
  19.   [Install]
  20.   WantedBy=multi-user.target
  21.   EOF

6.2.6 同步文件到集群节点

        如果不想 master 节点也安装 kube-proxy 组件,可以只给 node 节点传送文件,只在 node 节点安装也可。

  1.   [root@k8s-master1 work]# cp kube-proxy*.pem /etc/kubernetes/ssl/
  2.   [root@k8s-master1 work]# cp kube-proxy.kubeconfig kube-proxy.yaml /etc/kubernetes/
  3.    
  4.   [root@k8s-master1 work]# for i in k8s-master2 k8s-master3 k8s-node1 k8s-node2;do scp kube-proxy.kubeconfig kube-proxy.yaml $i:/etc/kubernetes/;done
  5.    
  6.   [root@k8s-master1 work]# for i in k8s-master2 k8s-master3 k8s-node1 k8s-node2;do scp /usr/lib/systemd/system/kube-proxy.service $i:/usr/lib/systemd/system/;done

注意:传送后需要手动修改 kube-proxy.yaml 中三个 Address IP 地址为当前主机 IP.

6.2.7 服务启动(所有节点)

  1.   mkdir -p /var/lib/kube-proxy
  2.    
  3.   systemctl daemon-reload
  4.   systemctl enable --now kube-proxy
  5.   systemctl status kube-proxy

6.3 网络组件部署 Calico

Calico 各版本官方文档:System requirements | Calico Documentation

可以通过这里来查看 Calico 所支持的 k8s 版本:

6.3.1 下载 calico.yaml

  1.   [root@k8s-master1 ~]# curl https://raw.githubusercontent.com/projectcalico/calico/v3.24.5/manifests/calico.yaml -O
  2.   % Total % Received % Xferd Average Speed Time Time Time Current
  3.   Dload Upload Total Spent Left Speed
  4.   0 0 0 0 0 0 0 0 --:--:-- --:--:-- --:--:-- 0curl: (7) Failed connect to raw.githubusercontent.com:443; 拒绝连接

我自己的虚机下载不了,所以换了方法:

复制这个连接:https://raw.githubusercontent.com/projectcalico/calico/v3.24.5/manifests/calico.yaml 到浏览器下载,再上传到 master1 即可:

6.3.2 修改 calico.yaml 里的 pod 网段

        在命令模式下输入 /192 就可以快速定位到需要修改的地址了,不然慢慢找太麻烦了,文件很长;然后把注释取消掉,把 value 修改成我们的 pod ip 地址即可:

  1.   [root@k8s-master1 ~]# vim calico.yaml
  2.   ······
  3.   # no effect. This should fall within `--cluster-cidr`.
  4.   - name: CALICO_IPV4POOL_CIDR
  5.   value: "10.0.0.0/16"
  6.   # Disable file logging so `kubectl logs` works.
  7.   - name: CALICO_DISABLE_FILE_LOGGING
  8.   value: "true"
  9.   ······

注意:改的时候请看清缩进关系,即这里的对齐关系。

6.3.3 提前下载好所需的镜像(可省略,直接执行下一步)

        ctr 是 containerd 自带的工具,有命名空间的概念,若是 k8s 相关的镜像,都默认在 k8s.io 这个命名空间,所以导入镜像时需要指定命令空间为 k8s.io:

  1.   [root@k8s-master1 ~]# grep image calico.yaml
  2.   image: docker.io/calico/cni:v3.24.5
  3.   imagePullPolicy: IfNotPresent
  4.   image: docker.io/calico/cni:v3.24.5
  5.   imagePullPolicy: IfNotPresent
  6.   image: docker.io/calico/node:v3.24.5
  7.   imagePullPolicy: IfNotPresent
  8.   image: docker.io/calico/node:v3.24.5
  9.   imagePullPolicy: IfNotPresent
  10.   image: docker.io/calico/kube-controllers:v3.24.5
  11.   imagePullPolicy: IfNotPresent
  12.    
  13.   # 在所有节点(包括 master)上把这些镜像下载下来:
  14.   for i in docker.io/calico/cni:v3.24.5 docker.io/calico/node:v3.24.5 docker.io/calico/kube-controllers:v3.24.5 ; do ctr -n=k8s.io images pull $i ; done

6.3.4 安装 calico 网络

[root@k8s-master1 ~]# kubectl apply -f calico.yaml 
 

6.3.5 验证结果

  1.   [root@k8s-master1 work]# kubectl get pods -A
  2.   NAMESPACE NAME READY STATUS RESTARTS AGE
  3.   kube-system calico-kube-controllers-798cc86c47-s8hb2 1/1 Running 0 98s
  4.   kube-system calico-node-7n6hg 1/1 Running 0 98s
  5.   kube-system calico-node-7r6tt 1/1 Running 0 98s
  6.   kube-system calico-node-9sx5w 1/1 Running 0 98s
  7.   kube-system calico-node-fbbjq 1/1 Running 0 98s
  8.   kube-system calico-node-frf6p 1/1 Running 0 98s
  9.    
  10.   [root@k8s-master1 work]# kubectl get nodes
  11.   NAME STATUS ROLES AGE VERSION
  12.   k8s-master1 Ready <none> 53m v1.25.6
  13.   k8s-master2 Ready <none> 53m v1.25.6
  14.   k8s-master3 Ready <none> 53m v1.25.6
  15.   k8s-node1 Ready <none> 54m v1.25.6
  16.   k8s-node2 Ready <none> 52m v1.25.6

6.4 部署 CoreDNS

6.4.1 下载 coredns.yaml

coredns.yaml 下载官网:kubernetes/cluster/addons/dns/coredns at master · kubernetes/kubernetes · GitHub

  1.   # wget 不下来的手动去复制吧(我就是复制的),wget 下载的文件格式不对
  2.   [root@k8s-master1 work]# wget https://github.com/kubernetes/kubernetes/blob/master/cluster/addons/dns/coredns/coredns.yaml.base
  3.    
  4.   # 或者复制内容
  5.   [root@k8s-master1 work]# vim coredns.yaml

6.4.2 修改 coredns.yaml

拿到 yaml 文件需要修改几处配置:

  1.   #1. 修改 k8s 集群后缀名称 __DNS__DOMAIN__ 为 cluster.local
  2.   #77 kubernetes __DNS__DOMAIN__ in-addr.arpa ip6.arpa {
  3.   # 修改后:kubernetes cluster.local in-addr.arpa ip6.arpa {
  4.    
  5.   #2. 修改 coredns 谷歌地址为 dockerhub 地址,容易下载
  6.   #142 image: registry.k8s.io/coredns/coredns:v1.10.0
  7.   # 修改后:image: coredns/coredns:1.10.0
  8.    
  9.   #3. 修改 pod 启动内存限制大小,300Mi 即可(这步可省略不做,我修改了~)
  10.   #146 memory: __DNS__MEMORY__LIMIT__
  11.   # 修改后:memory: 300Mi
  12.    
  13.   #4. 修改 coredns 的 svcIP 地址,一般为 svc 网段的第二位(一开始我们规划好的 10.255.0.0),10.255.0.2,第一位为 apiserver 的 svc
  14.   #212 clusterIP: __DNS__SERVER__
  15.   # 修改后:clusterIP: 10.255.0.2
  16.    
  17.   #5. 修改 coredns 副本数,默认是 1,且默认没有 replicas 字段(这步可省略不做)
  18.   102 spec:
  19.   103 # replicas: not specified here:
  20.   104 # 1. In order to make Addon Manager do not reconcile this replicas parameter.
  21.   105 # 2. Default is 1.
  22.   106 # 3. Will be tuned in real time if DNS horizontal auto-scaling is turned on.
  23.   replicas: 3
  24.   107 strategy:

完整 coredns.yaml 配置文件如下:

  1.   [root@k8s-master1 work]# cat coredns.yaml
  2.   # __MACHINE_GENERATED_WARNING__
  3.    
  4.   apiVersion: v1
  5.   kind: ServiceAccount
  6.   metadata:
  7.   name: coredns
  8.   namespace: kube-system
  9.   labels:
  10.   kubernetes.io/cluster-service: "true"
  11.   addonmanager.kubernetes.io/mode: Reconcile
  12.   ---
  13.   apiVersion: rbac.authorization.k8s.io/v1
  14.   kind: ClusterRole
  15.   metadata:
  16.   labels:
  17.   kubernetes.io/bootstrapping: rbac-defaults
  18.   addonmanager.kubernetes.io/mode: Reconcile
  19.   name: system:coredns
  20.   rules:
  21.   - apiGroups:
  22.   - ""
  23.   resources:
  24.   - endpoints
  25.   - services
  26.   - pods
  27.   - namespaces
  28.   verbs:
  29.   - list
  30.   - watch
  31.   - apiGroups:
  32.   - ""
  33.   resources:
  34.   - nodes
  35.   verbs:
  36.   - get
  37.   - apiGroups:
  38.   - discovery.k8s.io
  39.   resources:
  40.   - endpointslices
  41.   verbs:
  42.   - list
  43.   - watch
  44.   ---
  45.   apiVersion: rbac.authorization.k8s.io/v1
  46.   kind: ClusterRoleBinding
  47.   metadata:
  48.   annotations:
  49.   rbac.authorization.kubernetes.io/autoupdate: "true"
  50.   labels:
  51.   kubernetes.io/bootstrapping: rbac-defaults
  52.   addonmanager.kubernetes.io/mode: EnsureExists
  53.   name: system:coredns
  54.   roleRef:
  55.   apiGroup: rbac.authorization.k8s.io
  56.   kind: ClusterRole
  57.   name: system:coredns
  58.   subjects:
  59.   - kind: ServiceAccount
  60.   name: coredns
  61.   namespace: kube-system
  62.   ---
  63.   apiVersion: v1
  64.   kind: ConfigMap
  65.   metadata:
  66.   name: coredns
  67.   namespace: kube-system
  68.   labels:
  69.   addonmanager.kubernetes.io/mode: EnsureExists
  70.   data:
  71.   Corefile: |
  72.   .:53 {
  73.   errors
  74.   health {
  75.   lameduck 5s
  76.   }
  77.   ready
  78.   kubernetes cluster.local in-addr.arpa ip6.arpa {
  79.   pods insecure
  80.   fallthrough in-addr.arpa ip6.arpa
  81.   ttl 30
  82.   }
  83.   prometheus :9153
  84.   forward . /etc/resolv.conf {
  85.   max_concurrent 1000
  86.   }
  87.   cache 30
  88.   loop
  89.   reload
  90.   loadbalance
  91.   }
  92.   ---
  93.   apiVersion: apps/v1
  94.   kind: Deployment
  95.   metadata:
  96.   name: coredns
  97.   namespace: kube-system
  98.   labels:
  99.   k8s-app: kube-dns
  100.   kubernetes.io/cluster-service: "true"
  101.   addonmanager.kubernetes.io/mode: Reconcile
  102.   kubernetes.io/name: "CoreDNS"
  103.   spec:
  104.   # replicas: not specified here:
  105.   # 1. In order to make Addon Manager do not reconcile this replicas parameter.
  106.   # 2. Default is 1.
  107.   # 3. Will be tuned in real time if DNS horizontal auto-scaling is turned on.
  108.   strategy:
  109.   type: RollingUpdate
  110.   rollingUpdate:
  111.   maxUnavailable: 1
  112.   selector:
  113.   matchLabels:
  114.   k8s-app: kube-dns
  115.   template:
  116.   metadata:
  117.   labels:
  118.   k8s-app: kube-dns
  119.   spec:
  120.   securityContext:
  121.   seccompProfile:
  122.   type: RuntimeDefault
  123.   priorityClassName: system-cluster-critical
  124.   serviceAccountName: coredns
  125.   affinity:
  126.   podAntiAffinity:
  127.   preferredDuringSchedulingIgnoredDuringExecution:
  128.   - weight: 100
  129.   podAffinityTerm:
  130.   labelSelector:
  131.   matchExpressions:
  132.   - key: k8s-app
  133.   operator: In
  134.   values: ["kube-dns"]
  135.   topologyKey: kubernetes.io/hostname
  136.   tolerations:
  137.   - key: "CriticalAddonsOnly"
  138.   operator: "Exists"
  139.   nodeSelector:
  140.   kubernetes.io/os: linux
  141.   containers:
  142.   - name: coredns
  143.   image: coredns/coredns:1.10.0
  144.   imagePullPolicy: IfNotPresent
  145.   resources:
  146.   limits:
  147.   memory: 300Mi
  148.   requests:
  149.   cpu: 100m
  150.   memory: 70Mi
  151.   args: [ "-conf", "/etc/coredns/Corefile" ]
  152.   volumeMounts:
  153.   - name: config-volume
  154.   mountPath: /etc/coredns
  155.   readOnly: true
  156.   ports:
  157.   - containerPort: 53
  158.   name: dns
  159.   protocol: UDP
  160.   - containerPort: 53
  161.   name: dns-tcp
  162.   protocol: TCP
  163.   - containerPort: 9153
  164.   name: metrics
  165.   protocol: TCP
  166.   livenessProbe:
  167.   httpGet:
  168.   path: /health
  169.   port: 8080
  170.   scheme: HTTP
  171.   initialDelaySeconds: 60
  172.   timeoutSeconds: 5
  173.   successThreshold: 1
  174.   failureThreshold: 5
  175.   readinessProbe:
  176.   httpGet:
  177.   path: /ready
  178.   port: 8181
  179.   scheme: HTTP
  180.   securityContext:
  181.   allowPrivilegeEscalation: false
  182.   capabilities:
  183.   add:
  184.   - NET_BIND_SERVICE
  185.   drop:
  186.   - all
  187.   readOnlyRootFilesystem: true
  188.   dnsPolicy: Default
  189.   volumes:
  190.   - name: config-volume
  191.   configMap:
  192.   name: coredns
  193.   items:
  194.   - key: Corefile
  195.   path: Corefile
  196.   ---
  197.   apiVersion: v1
  198.   kind: Service
  199.   metadata:
  200.   name: kube-dns
  201.   namespace: kube-system
  202.   annotations:
  203.   prometheus.io/port: "9153"
  204.   prometheus.io/scrape: "true"
  205.   labels:
  206.   k8s-app: kube-dns
  207.   kubernetes.io/cluster-service: "true"
  208.   addonmanager.kubernetes.io/mode: Reconcile
  209.   kubernetes.io/name: "CoreDNS"
  210.   spec:
  211.   selector:
  212.   k8s-app: kube-dns
  213.   clusterIP: 10.255.0.2
  214.   ports:
  215.   - name: dns
  216.   port: 53
  217.   protocol: UDP
  218.   - name: dns-tcp
  219.   port: 53
  220.   protocol: TCP
  221.   - name: metrics
  222.   port: 9153
  223.   protocol: TCP

6.4.3 安装 coredns

  1.   [root@k8s-master1 work]# kubectl apply -f coredns.yaml
  2.    
  3.   [root@k8s-master1 work]# kubectl get pods -A
  4.   NAMESPACE NAME READY STATUS RESTARTS AGE
  5.   kube-system calico-kube-controllers-798cc86c47-s8hb2 1/1 Running 0 54m
  6.   kube-system calico-node-7n6hg 1/1 Running 0 54m
  7.   kube-system calico-node-7r6tt 1/1 Running 0 54m
  8.   kube-system calico-node-9sx5w 1/1 Running 0 54m
  9.   kube-system calico-node-fbbjq 1/1 Running 0 54m
  10.   kube-system calico-node-frf6p 1/1 Running 0 54m
  11.   kube-system coredns-65bc566d6f-f6qvh 1/1 Running 0 53s
  12.    
  13.   # 节点⻆⾊名字更改
  14.   [root@k8s-master1 work]# kubectl label nodes k8s-master1 node-role.kubernetes.io/master=master
  15.   [root@k8s-master1 work]# kubectl label nodes k8s-node1 node-role.kubernetes.io/work=work
  16.   node/k8s-node1 labeled
  17.   [root@k8s-master1 work]# kubectl label nodes k8s-node2 node-role.kubernetes.io/work=work
  18.   node/k8s-node2 labeled
  19.    
  20.   [root@k8s-master1 work]# kubectl get nodes
  21.   NAME STATUS ROLES AGE VERSION
  22.   k8s-master1 Ready master 17h v1.25.6
  23.   k8s-master2 Ready <none> 17h v1.25.6
  24.   k8s-master3 Ready <none> 17h v1.25.6
  25.   k8s-node1 Ready work 17h v1.25.6
  26.   k8s-node2 Ready work 17h v1.25.6

6.4.5 测试 coredns 域名解析功能

  1.   [root@k8s-master1 work]# cat<<EOF | kubectl apply -f -
  2.   apiVersion: v1
  3.   kind: Pod
  4.   metadata:
  5.   name: busybox
  6.   namespace: default
  7.   spec:
  8.   containers:
  9.   - name: busybox
  10.   image: busybox:1.28
  11.   command:
  12.   - sleep
  13.   - "3600"
  14.   imagePullPolicy: IfNotPresent
  15.   restartPolicy: Always
  16.   EOF
  17.    
  18.   # ⾸先查看 pod 是否安装成功
  19.   [root@k8s-master1 work]# kubectl get pods
  20.   NAME READY STATUS RESTARTS AGE
  21.   busybox 1/1 Running 0 57s
  22.    
  23.   # 通过下面可以看到能访问网络
  24.   [root@k8s-master1 work]# kubectl exec busybox -it -- sh
  25.   / # ping www.baidu.com
  26.   PING www.baidu.com (182.61.200.6): 56 data bytes
  27.   64 bytes from 182.61.200.6: seq=0 ttl=127 time=84.916 ms
  28.   64 bytes from 182.61.200.6: seq=1 ttl=127 time=35.237 ms
  29.   64 bytes from 182.61.200.6: seq=2 ttl=127 time=43.888 ms
  30.   64 bytes from 182.61.200.6: seq=3 ttl=127 time=69.534 ms
  31.   64 bytes from 182.61.200.6: seq=4 ttl=127 time=33.419 ms
  32.   ^C
  33.   --- www.baidu.com ping statistics ---
  34.   5 packets transmitted, 5 packets received, 0% packet loss
  35.   round-trip min/avg/max = 33.419/53.398/84.916 ms
  36.    
  37.   # 10.255.0.2 就是我们 coreDNS 的 clusterIP,说明 coreDNS 配置好了。解析内部 Service 的名称,是通过 coreDNS 去解析的:
  38.   / # nslookup kubernetes.default.svc.cluster.local
  39.   Server: 10.255.0.2
  40.   Address 1: 10.255.0.2 kube-dns.kube-system.svc.cluster.local
  41.    
  42.   Name: kubernetes.default.svc.cluster.local
  43.   Address 1: 10.255.0.1 kubernetes.default.svc.cluster.local

        注意:busybox 要用指定的 1.28 版本,不能用最新版本,最新版本,nslookup 会解析不到 dns 和 ip.

七、安装 keepalived+nginx 实现 k8s apiserver 高可用

7.1 keepalived+nginx 高可用介绍

7.1.1 什么是高可用?

        高可用 HA(High Availability)是分布式系统架构设计中必须考虑的因素之一,它通常是指,通过设计减少系统不能提供服务的时间。如果一个系统能够一直提供服务,那么这个可用性则是百分之百,但是天有不测风云。所以我们只能尽可能的去减少服务的故障。

7.1.2 解决的问题?

        在生产环境上很多时候是以 Nginx 做反向代理对外提供服务,但是一天 Nginx 难免遇见故障,如:服务器宕机。当 Nginx 宕机那么所有对外提供的接口都将导致无法访问。

        虽然我们无法保证服务器百分之百可用,但是也得想办法避免这种悲剧,今天我们使用keepalived 来实现 Nginx 的高可用。

7.1.3 双机热备方案

        这种方案是国内企业中最为普遍的一种高可用方案,双机热备其实就是指一台服务器在提供服务,另一台为某服务的备用状态,当一台服务器不可用另外一台就会顶替上去。

7.1.4 keepalived 是什么?

        Keepalived 软件起初是专为 LVS 负载均衡软件设计的,用来管理并监控 LVS 集群系统中各个服务节点的状态,后来又加入了可以实现高可用的 VRRP (Virtual Router Redundancy Protocol ,虚拟路由器冗余协议)功能。因此,Keepalived 除了能够管理 LVS 软件外,还可以作为其他服务(例如:Nginx、Haproxy、MySQL等)的高可用解决方案软件。

7.1.5 故障转移机制

        Keepalived 高可用服务之间的故障切换转移,是通过 VRRP 来实现的。在 Keepalived 服务正常工作时,主 Master 节点会不断地向备节点发送(多播的方式)心跳消息,用以告诉备 Backup 节点自己还活着,当主 Master 节点发生故障时,就无法发送心跳消息,备节点也就因此无法继续检测到来自主 Master 节点的心跳了,于是调用自身的接管程序,接管主 Master 节点的 IP 资源及服务。而当主 Master 节点恢复时,备 Backup 节点又会释放主节点故障时自身接管的 IP资源及服务,恢复到原来的备用角色。

7.2 安装 nginx 与 keeplived(所有 master 节点)

yum install -y nginx keepalived nginx-all-modules.noarch
 

7.3 nginx 配置(三个 master 节点的 nginx 配置一样)

  1.   cat /etc/nginx/nginx.conf
  2.   user nginx;
  3.   worker_processes auto;
  4.   error_log /var/log/nginx/error.log;
  5.   pid /run/nginx.pid;
  6.    
  7.   include /usr/share/nginx/modules/*.conf;
  8.    
  9.   events {
  10.   worker_connections 1024;
  11.   }
  12.    
  13.   # 四层负载均衡,为三台 Master apiserver 组件提供负载均衡
  14.   stream {
  15.    
  16.   log_format main '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent';
  17.    
  18.   access_log /var/log/nginx/k8s-access.log main;
  19.    
  20.   upstream k8s-apiserver {
  21.   server 192.168.78.150:6443;
  22.   server 192.168.78.151:6443;
  23.   server 192.168.78.152:6443;
  24.    
  25.   }
  26.    
  27.   server {
  28.   listen 16443; # 由于 nginx 与 master 节点复用,这个监听端口不能是 6443,否则会冲突
  29.   proxy_pass k8s-apiserver;
  30.   }
  31.   }
  32.    
  33.   http {
  34.   log_format main '$remote_addr - $remote_user [$time_local] "$request" '
  35.   '$status $body_bytes_sent "$http_referer" '
  36.   '"$http_user_agent" "$http_x_forwarded_for"';
  37.    
  38.   access_log /var/log/nginx/access.log main;
  39.    
  40.   sendfile on;
  41.   tcp_nopush on;
  42.   tcp_nodelay on;
  43.   keepalive_timeout 65;
  44.   types_hash_max_size 4096;
  45.    
  46.   include /etc/nginx/mime.types;
  47.   default_type application/octet-stream;
  48.    
  49.   include /etc/nginx/conf.d/*.conf;
  50.    
  51.   server {
  52.   listen 80;
  53.   listen [::]:80;
  54.   server_name _;
  55.   root /usr/share/nginx/html;
  56.    
  57.   include /etc/nginx/default.d/*.conf;
  58.    
  59.   error_page 404 /404.html;
  60.   location = /404.html {
  61.   }
  62.    
  63.   error_page 500 502 503 504 /50x.html;
  64.   location = /50x.html {
  65.   }
  66.   }
  67.    
  68.    
  69.   }

7.4 配置 KeepAlived(所有 Master 节点)

主从配置不一致,需要注意。

7.4.1 Master1

  1.   [root@k8s-master1 work]# vim /etc/keepalived/keepalived.conf
  2.   global_defs {
  3.   notification_email {
  4.   [email protected]
  5.   [email protected]
  6.   [email protected]
  7.   }
  8.   notification_email_from [email protected]
  9.   smtp_server 127.0.0.1
  10.   smtp_connect_timeout 30
  11.   router_id NGINX_MASTER
  12.   }
  13.    
  14.   vrrp_script check_nginx {
  15.   script "/etc/keepalived/check_nginx.sh" # 心跳执行的脚本,检测 nginx 是否启动
  16.   interval 2 #(检测脚本执行的间隔,单位是秒)
  17.   weight 2 # 权重
  18.   }
  19.    
  20.   # vrrp 实例定义部分
  21.   vrrp_instance VI_1 {
  22.   state MASTER # 指定 keepalived 的角色,MASTER 为主,BACKUP 为备
  23.   interface ens32 # 当前进行vrrp通讯的网络接口卡(当前centos的网卡) 用ifconfig查看你具体的网卡
  24.   virtual_router_id 51 # VRRP 路由 ID 实例,每个实例是唯一的,主从要一致
  25.   priority 100 # 优先级,优先级,数值越大,获取处理请求的优先级越高。备服务器设置 90
  26.   advert_int 1 # 指定 VRRP 心跳包通告间隔时间,默认 1 秒
  27.   # 授权访问
  28.   authentication {
  29.   auth_type PASS # 设置验证类型和密码,MASTER 和 BACKUP 必须使用相同的密码才能正常通信
  30.   auth_pass 1111
  31.   }
  32.   # 虚拟 IP
  33.   virtual_ipaddress {
  34.   192.168.78.155/24 # 定义虚拟 ip(VIP),可多设,每行一个
  35.   }
  36.   track_script {
  37.   check_nginx #(调用检测脚本)
  38.   }
  39.   }

7.4.2 Master2

  1.   [root@k8s-master2 ~]# vim /etc/keepalived/keepalived.conf
  2.   global_defs {
  3.   notification_email {
  4.   [email protected]
  5.   [email protected]
  6.   [email protected]
  7.   }
  8.   notification_email_from [email protected]
  9.   smtp_server 127.0.0.1
  10.   smtp_connect_timeout 30
  11.   router_id NGINX_MASTER
  12.   }
  13.    
  14.   vrrp_script check_nginx {
  15.   script "/etc/keepalived/check_nginx.sh" # 心跳执行的脚本,检测 nginx 是否启动
  16.   interval 2 #(检测脚本执行的间隔,单位是秒)
  17.   weight 2 # 权重
  18.   }
  19.    
  20.   # vrrp 实例定义部分
  21.   vrrp_instance VI_1 {
  22.   state BACKUP # 指定 keepalived 的角色,MASTER 为主,BACKUP 为备
  23.   interface ens32 # 当前进行vrrp通讯的网络接口卡(当前centos的网卡) 用ifconfig查看你具体的网卡
  24.   virtual_router_id 51 # VRRP 路由 ID 实例,每个实例是唯一的,主从要一致
  25.   priority 90 # 优先级,优先级,数值越大,获取处理请求的优先级越高。备服务器设置 90
  26.   advert_int 1 # 指定 VRRP 心跳包通告间隔时间,默认 1 秒
  27.   # 授权访问
  28.   authentication {
  29.   auth_type PASS # 设置验证类型和密码,MASTER 和 BACKUP 必须使用相同的密码才能正常通信
  30.   auth_pass 1111
  31.   }
  32.   # 虚拟 IP
  33.   virtual_ipaddress {
  34.   192.168.78.155/24 # 定义虚拟 ip(VIP),可多设,每行一个
  35.   }
  36.   track_script {
  37.   check_nginx #(调用检测脚本)
  38.   }
  39.   }

7.4.3 Master3

  1.   [root@k8s-master3 ~]# vim /etc/keepalived/keepalived.conf
  2.   global_defs {
  3.   notification_email {
  4.   [email protected]
  5.   [email protected]
  6.   [email protected]
  7.   }
  8.   notification_email_from [email protected]
  9.   smtp_server 127.0.0.1
  10.   smtp_connect_timeout 30
  11.   router_id NGINX_MASTER
  12.   }
  13.    
  14.   vrrp_script check_nginx {
  15.   script "/etc/keepalived/check_nginx.sh" # 心跳执行的脚本,检测 nginx 是否启动
  16.   interval 2 #(检测脚本执行的间隔,单位是秒)
  17.   weight 2 # 权重
  18.   }
  19.    
  20.   # vrrp 实例定义部分
  21.   vrrp_instance VI_1 {
  22.   state BACKUP # 指定 keepalived 的角色,MASTER 为主,BACKUP 为备
  23.   interface ens32 # 当前进行vrrp通讯的网络接口卡(当前centos的网卡) 用ifconfig查看你具体的网卡
  24.   virtual_router_id 51 # VRRP 路由 ID 实例,每个实例是唯一的,主从要一致
  25.   priority 90 # 优先级,优先级,数值越大,获取处理请求的优先级越高。备服务器设置 90
  26.   advert_int 1 # 指定 VRRP 心跳包通告间隔时间,默认 1 秒
  27.   # 授权访问
  28.   authentication {
  29.   auth_type PASS # 设置验证类型和密码,MASTER 和 BACKUP 必须使用相同的密码才能正常通信
  30.   auth_pass 1111
  31.   }
  32.   # 虚拟 IP
  33.   virtual_ipaddress {
  34.   192.168.78.155/24 # 定义虚拟 ip(VIP),可多设,每行一个
  35.   }
  36.   track_script {
  37.   check_nginx #(调用检测脚本)
  38.   }
  39.   }

7.5 健康检查脚本(三个 master 执行)

  1.   vim /etc/keepalived/check_nginx.sh
  2.   #!/bin/bash
  3.   #1、判断 Nginx 是否存活
  4.   counter=`ps -C nginx --no-header | wc -l`
  5.   if [ $counter -eq 0 ]; then
  6.   #2、如果不存活则尝试启动 Nginx
  7.   systemctl start nginx
  8.   sleep 2
  9.   #3、等待 2 秒后再次获取一次 Nginx 状态
  10.   counter=`ps -C nginx --no-header | wc -l`
  11.   #4、再次进行判断,如 Nginx 还不存活则停止 Keepalived,让地址进行漂移
  12.   if [ $counter -eq 0 ]; then
  13.   systemctl stop keepalived
  14.   fi
  15.   fi
  16.    
  17.   # 授权
  18.   chmod +x /etc/keepalived/check_nginx.sh

7.6 启动 nginx 和 keepalived(所有 master 节点)

  1.   systemctl daemon-reload
  2.   systemctl enable --now nginx
  3.   systemctl enable --now keepalived

7.7 查看 vip 是否绑定成功

  1.   # 看到有 VIP 绑定到 ens32 ⽹卡上了
  2.   [root@k8s-master1 work]# ip a | grep ens32
  3.   2: ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
  4.   inet 192.168.78.150/24 brd 192.168.78.255 scope global noprefixroute ens32
  5.   inet 192.168.78.155/24 scope global secondary ens32

7.8 测试 keepalived

        先停掉 master1 上的 keepalived,然后 vip 会随机漂移到 master2 或 master3 上,因为它两的权重相同:

  1.   [root@k8s-master1 work]# systemctl stop keepalived.service
  2.   [root@k8s-master1 work]# ip a | grep ens32
  3.   2: ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
  4.   inet 192.168.78.150/24 brd 192.168.78.255 scope global noprefixroute ens32
  5.    
  6.   [root@k8s-master2 ~]# ip a | grep ens32
  7.   2: ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
  8.   inet 192.168.78.151/24 brd 192.168.78.255 scope global noprefixroute ens32
  9.    
  10.   # vip 在 master 3 上:
  11.   [root@k8s-master3 ~]# ip addr | grep ens32
  12.   2: ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
  13.   inet 192.168.78.152/24 brd 192.168.78.255 scope global noprefixroute ens32
  14.   inet 192.168.78.155/24 scope global secondary ens32
  15.    
  16.   # 重新启动 keepalive,vip 回来了
  17.   [root@k8s-master1 work]# systemctl start keepalived.service
  18.   [root@k8s-master1 work]# ip a | grep ens32
  19.   2: ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
  20.   inet 192.168.78.150/24 brd 192.168.78.255 scope global noprefixroute ens32
  21.   inet 192.168.78.155/24 scope global secondary ens32

        目前所有的 Worker Node 组件连接都还是 master1 Node,如果不改为连接 VIP 走负载均衡器,那么 Master 还是单点故障。

        因此接下来就是要改所有 Worker Node(kubectl get node 命令查看到的节点)组件配置文件,由原来 192.168.78.150 修改为 192.168.78.155(VIP)。

在 node1 和 node2 执行:

  1.   [root@k8s-node1 ~]# ls /etc/kubernetes/
  2.   kubelet-bootstrap.kubeconfig kubelet.json kubelet.kubeconfig kube-proxy.kubeconfig kube-proxy.yaml ssl
  3.    
  4.   sed -i 's#192.168.78.150:6443#192.168.78.155:16443#' /etc/kubernetes/kubelet-bootstrap.kubeconfig
  5.    
  6.   sed -i 's#192.168.78.150:6443#192.168.78.155:16443#' /etc/kubernetes/kubelet.json
  7.    
  8.   sed -i 's#192.168.78.150:6443#192.168.78.155:16443#' /etc/kubernetes/kubelet.kubeconfig
  9.    
  10.   sed -i 's#192.168.78.150:6443#192.168.78.155:16443#' /etc/kubernetes/kube-proxy.kubeconfig
  11.    
  12.   sed -i 's#192.168.78.150:6443#192.168.78.155:16443#' /etc/kubernetes/kube-proxy.yaml
  13.    
  14.   # 重启服务即可
  15.   systemctl restart kubelet kube-proxy

这样 k8s-v1.25 高可用集群就安装好了!!!

上一篇文章:【云原生 | Kubernetes 实战】01、K8s-v1.25集群搭建和部署基于网页的 K8s 用户界面 Dashboard_containerd镜像加速_Stars.Sky的博客-CSDN博客

下一篇文章:2023 K8s 认证工程师 CKA 考题分析和题库练习(上)_Stars.Sky的博客-CSDN博客_k8s认证考试

标签:master1,K8s,kubernetes,--,手把手,master,k8s,root,kube
From: https://www.cnblogs.com/data159/p/17244258.html

相关文章

  • k8s Server
    1.k8sServeryaml文件编写格式说明:kind:Service#类型为serviceapiVersion:v1#serviceAPI版本,service.apiVersionmetadata:#定义service......
  • K8s学习(一)从零开始搭建kubernetes集群环境(虚拟机/kubeadm方式)
    K8s学习(一)从零开始搭建kubernetes集群环境(虚拟机/kubeadm方式) 1Kubernetes简介(k8s)传统部署:互联网早期会直接将应用程序部署在物理机上或者虚拟操作系统中,如部署到to......
  • k8s常见故障
    故障排查思路节点处于NotReady节点是由kubelet管理的,所以要先检查kubelet的相关情况排查思路:查看kubelet和docker服务是否正常systemctlstatuskubectlsystemctlstatusd......
  • k8s版MongoShake数据迁移工具
    说明我们原有的MongoDB副本集集群部署在k8s上,后因业务需求,在k8s集群外使用三台虚拟机组建了一套相同架构的MongoDB副本集集群,现想将在k8s集群上mongoDB数据迁移到......
  • (2023版)一套教程搞定k8s安装到实战 | Kubernetes学习路线
    视频来源:B站《(2022版)最新、最全、最详细的Kubernetes(K8s)教程,从K8s安装到实战一套搞定》一边学习一边整理老师的课程内容及试验笔记,并与大家分享,侵权即删,谢谢支持! ......
  • 128道高频k8s高频面试题
    1、简述ETCD及其特点?2、简述ETCD适应的场景?3、简述什么是Kubernetes?4、简述Kubernetes和Docker的关系?5、简述Kubernetes中什么是Minikube、Kubectl、Kubelet?6、......
  • Hbase报错ERROR: KeeperErrorCode = NoNode for /hbase/master
    场景在上面搭建Hadoop和Hbase的基础上,三台服务器全部重启了。再执行hbase的命令时提示:ERROR:KeeperErrorCode=NoNodefor/hbase/master 注:关注公众号霸道的程序猿获......
  • airflow+k8s 多用户-分布式-跨集群-容器化调度
    对于考虑使用拖拉拽编排使用云原生调度的可以参考​​​https://github.com/tencentmusic/argo-workflow​​全栈工程师开发手册(作者:栾鹏)​架构系列文章最开始采用airflow......
  • k8s通过deployment创建pod失败排查
    k8s集群中,deployment启动后没有成功创建pod,通过“kubectldescribedeployment${DEPLOY_NAME}”,看到如下日志,只看到“ReplicaFailureTrueFailedCreate”,但是没有failed......
  • KubeSphere Cloud 月刊|灾备支持 K8s 1.22+,轻量集群支持安装灾备和巡检组件
    功能升级备份容灾服务支持K8sv1.22+版本集群随着Kubernetes近一年频繁的发版、升级,越来越多的用户开始部署并使用高版本的Kubernetes集群。备份容灾服务支持Kube......