首页 > 其他分享 >K8S集群重新初始化

K8S集群重新初始化

时间:2022-08-27 10:45:59浏览次数:67  
标签:iptables 初始化 k8s etc 集群 && rm kubeadm K8S

K8S集群重新初始化

在引导k8s集群的过程时可能因为这个或那个的原因导致需要重新引导集群,先假定以下的步骤在前面你已经做好了:

系统内核设置
k8s涉及的镜像已经拉取成功
网络插件已经成功安装
docker加速镜像已经配置完成
k8s和docker镜像私服已经集成

重新引导k8s集群的步骤如下:

master节点
1、在master节点执行下面reset命令:

kubeadm reset

//过程会询问是否重置,输入y然后回车

2、手动清除配置信息,这一步很关键:

rm -rf /root/.kube
rm -rf /etc/cni/net.d
yum install -y ipvsadm
ipvsadm -C
iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X

3、重新引导集群

kubeadm init xxxxx

例如,具体按你的为准:
kubeadm init --image-repository registry.aliyuncs.com/google_containers --kubernetes-version v1.18.3 --pod-network-cidr=192.168.0.0/16 --control-plane-endpoint=k8s-control-cluster-endpoint
4、创建配置目录,并复制权限配置文件到用户目录下:

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

5、安装网络插件

kubectl apply -f https://docs.projectcalico.org/v3.14/manifests/calico.yaml

work节点
1、重置工作节点

kubeadm reset
输入y
2、手动删除目录

rm -rf /root/.kube
rm -rf /etc/cni/net.d
rm -rf /etc/kubernetes/*
ipvsadm -C
iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X

3、重新加入集群

kubeadm join xxx #获取该指令可以通过在master节点上执行:kubeadm token create --print-join-command

转载于:

初始化失败问题处理:

1、[ERROR CRI]: container runtime is not running: output: time="2022-08-27T10:20:58+08:00" level=fatal msg="getting status of runtime: rpc error: code = Unimplemented desc = unknown service runtime.v1alpha2.RuntimeService"

解决方式:

[root@k8s-master01 ~]# rm /etc/containerd/config.toml
rm:是否删除普通文件 "/etc/containerd/config.toml"?y
[root@k8s-master01 ~]# systemctl restart containerd

标签:iptables,初始化,k8s,etc,集群,&&,rm,kubeadm,K8S
From: https://www.cnblogs.com/-abm/p/16629954.html

相关文章

  • KingbaseES V8R3集群运维案例之---用户自定义表空间管理
    ​案例说明:KingbaseES数据库支持用户自定义表空间的创建,并建议表空间的文件存储路径配置到数据库的data目录之外。本案例复现了,当用户自定义表空间存储路径配置到data下......
  • KingbaseES V8R6集群维护案例之---将securecmdd通讯改为ssh案例
    案例说明:在KingbaseESV8R6的后期版本中,为了解决有的主机之间不允许root用户ssh登录的问题,使用了securecmdd作为集群部署分发和通讯的服务,有生产环境通过漏洞扫描,在8890(se......
  • K8s集群版本升级
    升级管理节点:1、查找最新版本号yumlist--showduplicateskubeadm2、升级kubeadmyuminstall-ykubeadm-1.23.0-03、驱逐node上的pod,且不可调度kubectldraink8s......
  • 阿里云 ACK One 多集群管理全面升级:多集群服务、多集群监控、两地三中心应用容灾
    简介: 本文介绍了ACKOne近期发布的3个主要特性,覆盖了多集群管理的3个主要场景,跨集群服务发现与访问、多集群全局监控、应用容灾。除多集群管理外,ACKOne更是支持连......
  • clickhouse集群部署
    1.clickhouse集群部署特点:1.依赖ZooKeeper,通过其来协调多个副本之间的同步。2.表级别的副本,副本是在表级别定义的。3.多主架构,可以在任意副本上执行语句。部署规划......
  • k8s问题解决
    问题1:问题描述:k8s中Terminating状态pod不能删除[root@master~]#kubectlgetpods-nmsNAMEREADYSTATUSRESTARTSAGEportal-78......
  • K8s集群中部署SpringCloud在线购物平台(三)
    五、SpringCloud概述springcloud架构图   5.1SpringCloud是什么?官网:https://spring.io/projects/spring-cloud    SpringCloud是一系列框架的有序集......
  • etcd 集群部署
         mkdir-p/etc/etcd/data/etcdgroupadd-f-g1501etcduseradd-c"etcduser"-d/data/etcd-s/bin/false-getcd-u1501etcdchown-Retcd:e......
  • 部署ELK及kafka日志收集k8s容器环境
    部署zookeeper      准备三个节点系统并安装jdk       结构图:官网下载地址:   https://zookeeper.apache.org/releases.html  安装JDK环......
  • K8S nodeSelector、nodeName、node亲和与反亲和
    POD调度Pod调度过程:      用户使用kubectl创建podyaml或者命令,kubectl将请求发送给api-server,apiserver获得请求后将pod相关数据存储到etcd数据库。这时schedule......