首页 > 其他分享 >kubeadm部署k8s集群

kubeadm部署k8s集群

时间:2024-07-31 21:53:27浏览次数:14  
标签:opt -- 集群 kubeadm k8s config 节点

目录

1.环境准备

2.升级内核

3.所有节点安装docker

4.安装kubeadm,kubelet和kubectl

5.高可用配置

6.部署K8S集群

7.所有节点部署网络插件flannel

8.部署 Dashboard可视化面板

9.更新k8s证书有效期


1.环境准备

7-2192.168.9.210master01
7-5192.168.9.120master02
7-7192.168.9.140master03
7-8192.168.9.150node01
7-9192.168.9.112node02
7-12192.168.9.114负载均衡器1
7-13192.168.9.115负载均衡器2
//所有节点,关闭防火墙规则,关闭selinux,关闭swap交换
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
sed -i 's/enforcing/disabled/' /etc/selinux/config
iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X
swapoff -a						#交换分区必须要关闭
sed -ri 's/.*swap.*/#&/' /etc/fstab		#永久关闭swap分区,&符号在sed命令中代表上次匹配的结果
#加载 ip_vs 模块
for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done


//修改主机名
hostnamectl set-hostname master01
hostnamectl set-hostname master02
hostnamectl set-hostname master03
hostnamectl set-hostname node01
hostnamectl set-hostname node02
vim /etc/hosts  #所有主机操作
192.168.9.210 master01
192.168.9.120 master02
192.168.9.140 master03
192.168.9.150 node01
192.168.9.112 node02


//调整内核参数
cat > /etc/sysctl.d/kubernetes.conf << EOF
#开启网桥模式,可将网桥的流量传递给iptables链
net.bridge.bridge-nf-call-ip6tables=1
net.bridge.bridge-nf-call-iptables=1
#关闭ipv6协议
net.ipv6.conf.all.disable_ipv6=1
net.ipv4.ip_forward=1
EOF

//生效参数
sysctl --system  


vim /etc/security/limits.conf  内核限制配置
尾部添加
*  soft  nofile  65536
*  hard  nofile  65536
*  soft  nproc   65536
*  hard  nproc   65536
*  soft  memlock  unlimited
*  hard  memlock  unlimited



2.升级内核

#配置elrepo镜像源   所有服务器操作
vim /etc/yum.repos.d/elrepo.repo
[elrepo]
name=elrepo
baseurl=https://mirrors.aliyun.com/elrepo/archive/kernel/el7/x86_64
gpgcheck=0
enabled=1

cd /etc/yum.repos.d/
mv local.repo repo.bak/
上传阿里云在线云

yum clean all

#集群升级内核
yum install -y kernel-lt kernel-lt-devel

#设置默认启动内核
grub2-set-default 0

#重启操作系统
reboot

#查看生效版本
hostnamectl

3.所有节点安装docker

所有服务器操作
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo 
yum install -y docker-ce docker-ce-cli containerd.io


cat > /etc/docker/daemon.json <<EOF
{
  "registry-mirrors": 镜像加速地址,
  "exec-opts": ["native.cgroupdriver=systemd"],
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "500m", "max-file": "3"
  }
}
EOF
#使用Systemd管理的Cgroup来进行资源控制与管理,因为相对Cgroupfs而言,Systemd限制CPU、内存等资源更加简单和成熟稳定。
#日志使用json-file格式类型存储,大小为500M,保存在/var/log/containers目录下,方便ELK等日志系统收集和管理日志。



systemctl enable --now docker
docker info 查看docker引擎是否为systemd

4.安装kubeadm,kubelet和kubectl

所有服务器操作
//定义kubernetes源
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

yum install -y kubelet-1.20.15 kubeadm-1.20.15 kubectl-1.20.15

//开机自启kubelet
systemctl enable kubelet.service
#K8S通过kubeadm安装出来以后都是以Pod方式存在,即底层是以容器方式运行,所以kubelet必须设置开机自启


5.高可用配置

以上一篇博客中nginx配置高可用为基础

两个服务器都操作

vim nginx.conf 
server 192.168.9.210:6443;
server 192.168.9.120:6443;
server 192.168.9.140:6443;

systemctl restart nginx

6.部署K8S集群

master01节点操作

cd /opt
mkdir k8s/
kubeadm config print init-defaults > /opt/kubeadm-config.yaml

vim kubeadm-config.yaml
#12行修改为本机地址
advertiseAddress: 192.168.9.210
#22行添加
certSANS:
   - 192.168.9.210
   - 192.168.9.120
   - 192.168.9.140
   - 192.168.9.100

#31行添加
controlPlaneEndpoint: "192.168.9.100:6443"

#38行
imageRepository: registry.cn-hangzhou.aliyuncs.com/google_containers

#40行
kubernetesVersion: v1.20.15

#43行修改   
serviceSubnet: 10.96.0.0/16

#44行添加   
podSubnet: "10.244.0.0/16"


#46行添加
 ---
 apiVersion: kubeproxy.config.k8s.io/v1alpha1
 kind: KubeProxyConfiguration
 mode: ipvs


master01节点操作
//在线拉取镜像
kubeadm config images pull --config /opt/kubeadm-config.yaml


master02、master03节点
cd /opt
mkdir k8s

#将master01节点文件进行远程复制
scp kubeadm-config.yaml master02:/opt/k8s/
scp kubeadm-config.yaml master03:/opt/k8s/

master02、master03节点
cd k8s
kubeadm config images pull --config kubeadm-config.yaml

master01节点

//初始化 master
kubeadm init --config=/opt/kubeadm-config.yaml --upload-certs | tee kubeadm-init.log
#--upload-certs 参数可以在后续执行加入节点时自动分发证书文件
#tee kubeadm-init.log 用以输出日志

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

kubectl get nodes



将其他master加入集群
kubeadm join 192.168.9.100:6443 --token abcdef.0123456789abcdef \
    --discovery-token-ca-cert-hash sha256:68e67ff66cc92f1e6f92a6c91cfdc83be1ee9ea5f59613c79ea1fa0fb09a799b \
    --control-plane --certificate-key 06e349cd7c0d263fb0c2907103a64f478954eb18a0dd40361dcc024d01a40dfb


将所有master加入集群
master01节点在使用kubeadm init --config=/opt/kubeadm-config.yaml --upload-certs | tee kubeadm-init.log命令后会有提示命令将node加入集群


kubeadm join 192.168.9.100:6443 --token abcdef.0123456789abcdef \
    --discovery-token-ca-cert-hash sha256:68e67ff66cc92f1e6f92a6c91cfdc83be1ee9ea5f59613c79ea1fa0fb09a799b 
#两个node分别执行


master01节点查看
kubectl get nodes   #所有节点都已加入集群


7.所有节点部署网络插件flannel

master01节点
cd /opt/k8s/
上传flannel-v0.21.5.zip压缩包
unzip flannel-v0.21.5.zip
docker load -i flannel.tar
docker load -i flannel-cni-plugin.tar 

两个node节点
cd /opt
mkdir k8s

scp cni-plugins-linux-amd64-v1.3.0.tgz flannel-cni-plugin.tar flannel.tar master02:/opt/k8s/
scp cni-plugins-linux-amd64-v1.3.0.tgz flannel-cni-plugin.tar flannel.tar master03:/opt/k8s/
cp cni-plugins-linux-amd64-v1.3.0.tgz flannel-cni-plugin.tar flannel.tar node01:/opt/k8s/
cp cni-plugins-linux-amd64-v1.3.0.tgz flannel-cni-plugin.tar flannel.tar node02:/opt/k8s/


 

在其余所有节点进入/opt/k8s目录执行
docker load -i flannel.tar
docker load -i flannel-cni-plugin.tar 
所有服务器操作
cd /opt
mv cni/ cni_bak
mkdir -p /opt/cni/bin
cd /opt/k8s/
tar xf cni-plugins-linux-amd64-v1.3.0.tgz -C /opt/cni/bin/
ls !$


master01节点操作
kubectl apply -f kube-flannel.yml   #创建资源
kubectl get nodes


8.部署 Dashboard可视化面板

//在 master01 节点上操作
#上传 recommended.yaml 文件到 /opt/k8s 目录中
cd /opt/k8s
kubectl apply -f recommended.yaml


#创建service account并绑定默认cluster-admin管理员集群角色
kubectl create serviceaccount dashboard-admin -n kube-system
kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')   #查看用户使用的令牌,需复制,后面要用


kubectl get pods -A -o wide  #master01节点上使用,即可查看到dashboard运行在那个节点上进而获取ip
#使用输出的token登录Dashboard
https://192.168.9.112:30001



如何解决kubeadm部署k8s集群中状态显示Unhealthy?

cd /etc/kubernetes/manifests
vim kube-controller-manager.yaml
vim kube-scheduler.yaml
将三个master节点中两个文件中的 #- --port=0注释重启即可

systemctl restart kubelet.service
kubectl get cs

9.更新k8s证书有效期

#查看证书有效期
kubeadm alpha certs check-expiration
openssl x509 -noout -dates -in /etc/kubernetes/pki/apiserver.crt

方法一:通过脚本升级证书有效期

master01节点
cd /opt/k8s/
上传脚本update-kubeadm-cert.sh
chmod +x update-kubeadm-cert.sh
./update-kubeadm-cert.sh all


方法二:

kubeadm alpha certs renew all --config kubeadm.yaml         #重新刷新证书一年有效期
kubeadm init phase kubeconfig all --config kubeadm.yaml      #更新kubeconfig配置文件

随后重启证书
systemctl restart kubelet     二进制安装k8s重启方法

kubeadm安装k8s的重启方法
mv /etc/kubernetes/manifests/*.yaml  /tmp/
mv /tmp/*.yaml /etc/kubernetes/manifests/

标签:opt,--,集群,kubeadm,k8s,config,节点
From: https://blog.csdn.net/2402_83805984/article/details/140820793

相关文章

  • 一图看懂Git、HTTPS、Docker、k8s和微服务
    一图看懂Git、HTTPS、Docker、k8s和微服务......
  • 智算集群网络拥塞原因分析及IB组网的优势
     智算集群网络在什么场景下会出现拥塞?CLOS网络架构(以其主要提出者CharlesClos命名,最初用于实现无阻塞的电话交换网络)是一种广泛应用于现代数据中心和高性能计算环境中的网络设计方法。智算集群建设中落地的CLOS架构主要是:Spine-Leaf网络架构。其除了支持Overlay层面技术之外;Sp......
  • redis-5.0.14集群部署
    一、集群规格IP主机名端口10.0.0.108master700110.0.0.108master700210.0.0.109slave1700110.0.0.109slave1700210.0.0.110slave2700110.0.0.110slave27002二、安装redis-5.0.14集群1.下载地址redis-5.0.142.上传包到每台服务器解压......
  • redis主从复制、哨兵模式、集群
    redis集群高可用redis集群的三种模式:1.主从复制(奇书3台一主两从)2.哨兵模式(3台一主两从)3.cluster(集群6333)主从复制:喝MySQL的主从复制类似,主可以写,写入主的数据通过RDB方式把数据同步到从服务器。从不能更新到主。也是哨兵模式的基础。缺点:没有办法进行故障自动......
  • proxmox ve 部署双节点HA集群及glusterfs分布式文件系统
    分布式存储的作用加入分布式存储的目的:主要是为了对数据进行保护避免因一台服务器磁盘的损坏,导致数据丢失不能正常使用。 参考文档:https://gowinder.work/post/proxmox-ve-%E9%83%A8%E7%BD%B2%E5%8F%8C%E8%8A%82%E7%82%B9%E9%9B%86%E7%BE%A4%E5%8F%8Aglusterfs%E5%88%86%E5%B8......
  • 使用Velero备份K8S资源,看这篇干货就够了
    一、Velero简介 Velero提供备份和恢复Kubernetes集群资源和持久卷的工具。Velero功能:对群集进行备份,并在丢失时进行还原。将集群资源迁移到其他集群。Velero包括:在群集上运行的服务器在本地运行的命令行客户端开源地址:https://github.com/vmware-tanzu/velero官方......
  • Kubenetes集群部署操作
    服务器操作系统:CentOS7.9NAT192.168.1.1564核20Gmaster192.168.1.1101核8Gnode01192.168.1.1111核8Gnode02192.168.1.1121核8Gnode03环境准备关闭防火墙####关闭防火墙systemctlstopfirewalld&&systemctldisablefirewalld&&iptables-F......
  • HDFS集群
    一、上传hadoop安装包到hdp-01集群任一节点(master) tar-zxvf软件包-C指定安装文件夹二、修改配置文件1.指定Hadoop的默认文件系统为hdfs2.指定hdfs的namenode节点为哪台机器3.指定namenode软件存储元数据的本地目录4.指定datanode软件存放文件块的本地目录三、进入......
  • DM-DSC集群配置
    DM-DSC集群配置 DMDSC概述DM共享存储数据库集群全称DMDataSharedCluster,简称DMDSCDMDSC特性DM共享存储数据库集群,允许多个数据库实例同时访问、操作同一数据库,具有高可用、高性能、负载均衡等特性。DMDSC支持故障自动切换和故障自动重加入,某一个数据库实例故障后......
  • 达梦数据库dm8版本Mpp集群原理系统架构和搭建测试
    达梦数据库dm8版本Mpp集群原理系统架构和搭建测试    当前主流的数据库系统架构有完全共享、共享存储、完全不共享和完全对等不共享几种。其中完全共享体系如SMP服务器,局限于单节点服务器,通常价格比较昂贵,其扩展性和性能受到相应的限制。共享存储体系允许系统......