首页 > 其他分享 >部署K8S集群(二):主节点初始化

部署K8S集群(二):主节点初始化

时间:2024-09-05 13:47:18浏览次数:9  
标签:初始化 K8S config io docker kube root 节点 flannel

主节点:

以下操作只在master进行

  1. 安装kubelet kubeadm kubectl
yum install -y kubelet kubeadm kubectl
  1. 安装containerd
    下载地址:https://github.com/containerd/containerd/releases
    找到标签为Latest的包,根据系统类型下载对应的包
#解压
tar Cxzvf /usr/local containerd-1.7.21-linux-amd64.tar.gz
#创建配置文件
mkdir -p /etc/containerd
cat > /etc/containerd/config.toml << EOF
version = 2
[plugins."io.containerd.grpc.v1.cri"]
sandbox_image = "registry.aliyuncs.com/google_containers/pause:3.7"
EOF
#封装成系统服务由systemctl管理启停
cat > /usr/lib/systemd/system/containerd.service << EOF
[Unit]
Description=containerd container runtime
Documentation=https://containerd.io
After=network.target local-fs.target
[Service]
#uncomment to enable the experimental sbservice (sandboxed) version of containerd/cri integration
#Environment="ENABLE_CRI_SANDBOXES=sandboxed"
ExecStartPre=-/sbin/modprobe overlay
ExecStart=/usr/local/bin/containerd
Type=notify
Delegate=yes
KillMode=process
Restart=always
RestartSec=5
# Having non-zero Limit*s causes performance problems due to accounting overhead
# in the kernel. We recommend using cgroups to do container-local accounting.
LimitNPROC=infinity
LimitCORE=infinity
LimitNOFILE=infinity
# Comment TasksMax if your systemd version does not supports it.
# Only systemd 226 and above support this version.
TasksMax=infinity
OOMScoreAdjust=-999
[Install]
WantedBy=multi-user.target
EOF
#加载containerd.service并设置服务自启动
systemctl daemon-reload
systemctl enable --now containerd
systemctl status containerd
  1. 安装runc
    下载地址:https://github.com/opencontainers/runc/releases
    找到标签为Latest的包,根据系统类型下载对应的包
#安装
install -m 755 runc.amd64 /usr/local/sbin/runc
  1. 安装cni-plugin
    下载地址:https://github.com/containernetworking/plugins/releases
    找到标签为Latest的包,根据系统类型下载对应的包
mkdir -p /opt/cni/bin
tar Cxzvf /opt/cni/bin cni-plugins-linux-amd64-v1.1.1.tgz

初始化主节点

  1. 创建配置文件/root/kubeadm-init-config.yaml

请注意其中的advertiseAddress为主节点IP,本文中为172.17.48.27;以及kubernetesVersion为使用的k8s版本,本文中为1.28.2。

cat > /root/kubeadm-init-config.yaml << EOF
---
apiVersion: kubeadm.k8s.io/v1beta3
kind: InitConfiguration
bootstrapTokens:
- token: abcdef.0123456789abcdef
  ttl: 24h0m0s
localAPIEndpoint:
  advertiseAddress: 172.17.48.27
  bindPort: 6443
nodeRegistration:
  criSocket: unix:///var/run/containerd/containerd.sock
  imagePullPolicy: IfNotPresent
  taints: []
---
apiVersion: kubeadm.k8s.io/v1beta3
kind: ClusterConfiguration
apiServer:
  timeoutForControlPlane: 4m0s
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controllerManager: {}
dns: {}
etcd:
  local:
    dataDir: /var/lib/etcd
imageRepository: registry.aliyuncs.com/google_containers
kubernetesVersion: 1.28.2
networking:
  dnsDomain: cluster.local
  serviceSubnet: 10.96.0.0/12
  podSubnet: 10.244.0.0/16
scheduler: {}
---
apiVersion: kubelet.config.k8s.io/v1beta1
kind: KubeletConfiguration
failSwapOn: false
address: 0.0.0.0
enableServer: true
cgroupDriver: cgroupfs
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration
mode: ipvs
ipvs:
  strictARP: true
EOF
  1. 执行初始化
kubeadm init --config /root/kubeadm-init-config.yaml

如无意外,则将出现如下输出

Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

Alternatively, if you are the root user, you can run:

  export KUBECONFIG=/etc/kubernetes/admin.conf

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 172.17.48.27:6443 --token abcdef.0123456789abcdef \
        --discovery-token-ca-cert-hash sha256:12dbea4e7f42d9700129fbd26832b19a6dd47615a425eae983391052a65e11af

按上文提示设置环境变量

#root用户
export KUBECONFIG=/etc/kubernetes/admin.conf
#非root用户
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

请务必记录以下输出,后续子节点加入集群需要

kubeadm join 172.17.48.27:6443 --token abcdef.0123456789abcdef \
        --discovery-token-ca-cert-hash sha256:12dbea4e7f42d9700129fbd26832b19a6dd47615a425eae983391052a65e11af
  1. 验证初始化结果
kubectl get nodes
NAME     STATUS     ROLES           AGE     VERSION
master   NotReady   control-plane   2m49s   v1.28.2

此时仍旧显示NotReady,需要安装网络插件

  1. 安装flannel
#下载官方配置文件
wget -c https://raw.githubusercontent.com/flannel-io/flannel/master/Documentation/kube-flannel.yml -O /root/kube-flannel.yml
#安装
kubectl apply -f /root/kube-flannel.yml
如果执行完后,依旧显示NotReady,那就是ctr拉镜像失败了,需要使用其他机器拉镜像,可以使用docker拉取再导入
#查看使用的flannel镜像版本
 cat /root/kube-flannel.yml | grep image
        image: docker.io/flannel/flannel-cni-plugin:v1.5.1-flannel2
        image: docker.io/flannel/flannel:v0.25.6
        image: docker.io/flannel/flannel:v0.25.6
#docker拉取镜像并导出
docker pull docker.io/flannel/flannel:v0.25.6 && docker save docker.io/flannel/flannel:v0.25.6 -o D:\flannel_flannel_v0.25.6.tar
docker pull docker.io/flannel/flannel-cni-plugin:v1.5.1-flannel2 && docker save docker.io/flannel/flannel:v0.25.6 -o D:\flannel_flannel-cni-plugin:v1.5.1-flannel2.tar
#ctr导入
ctr -n k8s.io image import flannel_flannel_v0.25.6.tar --digests=true
ctr -n k8s.io image import flannel_flannel-cni-plugin:v1.5.1-flannel2.tar --digests=true
#卸载flannel Daemonset,重新安装
kubectl delete daemonset kube-flannel-ds -n kube-flannel
kubectl apply -f /root/kube-flannel.yml

在导入镜像到ctr时,必须添加 -n k8s.io,将镜像放到命名空间k8s.io下,否则安装时,不会优先使用本地镜像
导入镜像时要注意,如果本身不能自动拉镜像,很大可能导入进去的镜像也无法识别成正确的名字,要手动改名
ctr -n k8s.io image tag 。个人建议导入一个改名一个,以免混淆。

  1. 安装完后再检查:
    kubectl get nodes
    master Ready control-plane 10h v1.28.2
    主节点已经就绪。

标签:初始化,K8S,config,io,docker,kube,root,节点,flannel
From: https://www.cnblogs.com/Ar4te-blog/p/18398270

相关文章

  • Prometheus通过node_exporter监控Node节点,Node节点的详细指标解读
    ✨✨欢迎大家来到景天科技苑✨✨......
  • k8s之存储类
    介绍在Kubernetes中,StorageClass是一种API对象,它定义了一种存储卷的动态供应方式。StorageClass允许管理员描述不同类型的存储系统或细节,例如不同类型的本地存储、不同类型的云存储等。当用户需要持久化存储时,他们可以请求特定类型的StorageClass,Kubernetes将根据这个描......
  • MongoDB单节点部署与基本操作
    MongoDB7.0单节点部署与MongoDBshell基本操作部署准备:1、操作系统:CentOS7.9 2、在操作系统中,创建一个mongod的用户和用户组,并配置其sudo权限,如果使用root用户可以不考虑准备此项。3、mongodb服务二进制包:mongodb-linux-x86_64-rhel70-7.0.14.tgz。下载地......
  • redis-cli创建Redis集群时显式指定主从节点
    背景前些年用python写过一个RedisCluster自动化安装,扩容和缩容的工具,虽然当时官方的的redis-trib.rb集群创建工具提供了集群创建、检查、修复、均衡等命令行功能,个人接受不了redis-trib.rb,原因在于redis-trib.rb需要ruby的环境,同时无法自定义指定集群中节点的主从关系。随后R......
  • Kubernetes学习指南:保姆级实操手册04——主机系统初始化
    四、Kubernetes学习指南:保姆级实操手册04——主机系统初始化前言:本章节主要内容是对主机操作系统的初始化操作,如发另外标注,所有的节点操作步骤一致,可以使用软件批量初始化。1.检查系统端口确保以下端口未被占用:运行后未有任务显示,表示端口未被占用。[root@k8s-master01~]#ss-......
  • 关于Java链表的一些操作以及力扣原题刷刷刷——反转链表、删除链表的倒数第N个节点
    1、反转链表1.1环境准备,可以自己先尝试实现/***@AuthorMiku*@Date2024/09/0209:54*@DescriptionTODO*@Version1.0*/publicclassSolution{staticclassListNode{intval;ListNodenext;ListNode(intval){......
  • [Python图论]在用图nx.shortest_path求解最短路径时,节点之间有多条边edge,会如何处理?
    问:在使用图求最短路径时,如果节点之间有多条路径,shortest_route=nx.shortest_path(G,source=start_node,target=end_node,weight='length')会如何处理,会自动选择最短那条吗?#输出图G各节点之间有多少条边edge,并给出其长度Edgesbetween103928and25508583:共2条Edge......
  • K8S:Yaml
    学习自:​K8s中yaml文件详解(超详细)​_yamllist-CSDN博客0、前言YAML文件是一种类似JSON的配置文件,相比JSON,YAML使用起来更简洁、强大、方便。它实质上是一种通用的数据串行化格式。1、语法规则区分大小写用缩进表明层级,同一缩进代表同一层级;只允许空格缩进,不允许TAB;可以......
  • k8s创建nfs+StorageClass
    什么是StorageClass前置准备nfsservernfsserver地址:192.168.2.152nsfpath:/datak8s集群集群版本:1.22容器:containerd1.6创建rbac参考https://github.com/kubernetes-retired/external-storage/blob/master/nfs-client/deploy/rbac.yamlapiVersion:v1kind:Ser......
  • K8S安装部署
    一、准备工作在vmware中安装,创建三台centos服务器主机ip配置master192.168.42.1884核,6g内存,40g硬盘node1192.168.42.1892核,2g内存,20g硬盘node2192.168.42.1902核,2g内存,20g硬盘二、环境配置1、修改hosts配置(所有节点执行)vim/etc/hosts192.168.42.188master192.168.4......