首页 > 其他分享 >Kubeadm在线安装k8s_超详细

Kubeadm在线安装k8s_超详细

时间:2023-04-10 19:13:26浏览次数:64  
标签:kubectl 在线 -- nginx master Kubeadm k8s root

 生产环境可以采取这种方式安装k8sv1.23.17,版本兼容很好,你的支持就是我最大的动力。

服务器要求:

建议最小硬件配置:2核CPU、2G内存、20G硬盘

服务器最好可以访问外网,会有从网上拉取镜像需求,如果服务器不能上网,需要提前下载对应镜像并导入节点

软件环境:

操作系统:centos7.9_x64(mini)

Docker:20-ce

K8s:1.23

服务器规划:(本实验采用虚拟机)

k8s-master:192.168.61.134

k8s-node1:192.168.61.135

k8s-node2:192.168.61.136

初始化环境

安装环境准备:下面的操作需要在所有的节点上执行。

# 关闭防火墙

systemctl stop firewalld

systemctl disable firewalld

# 关闭selinux

sed -i 's/enforcing/disabled/' /etc/selinux/config  # 永久

setenforce 0  # 临时

# 关闭swap

swapoff -a  # 临时

sed -ri 's/.*swap.*/#&/' /etc/fstab    # 永久

# 根据规划设置主机名

hostnamectl set-hostname <hostname>

# 添加hosts解析

cat >> /etc/hosts << EOF

192.168.61.134  k8s-master

192.168.61.135  k8s-node1

192.168.61.136  k8s-node2

EOF

# 将桥接的IPv4流量传递到iptables的链

cat > /etc/sysctl.d/k8s.conf << EOF

net.bridge.bridge-nf-call-ip6tables = 1

net.bridge.bridge-nf-call-iptables = 1

EOF

sysctl --system  # 生效

# 时间同步

yum -y install chrony

systemctl restart chronyd && systemctl enable chronyd

chronyc sources

# 下载阿里源

wget http://mirrors.aliyun.com/repo/Centos-7.repo -O /etc/yum.repos.d/CentOS-Base.repo

wget http://mirrors.aliyun.com/repo/epel-7.repo -P /etc/yum.repos.d/

yum clean all
yum makecache

安装docker

安装容器环境,下面的操作需要在所有的节点上执行。

wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
yum list docker-ce --showduplicates  #查看历史版本

  yum install -y docker-ce-20.10.23   #安装指定的版本

  yum install -y docker-ce   #也可以安装最新版(可选)

#编辑并添加,必须

vim /etc/docker/daemon.json
{

"registry-mirrors": ["https://oychq53f.mirror.aliyuncs.com"],

"exec-opts": ["native.cgroupdriver=systemd"]

}

#启动docker

# systemctl enable docker && systemctl restart docker  

# systemctl status docker

# docker info

安装kubelet、kubeadm、kubectl

配置kubernetes源

# cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

所有节点都安装kubeadm、kubelet、kubectl

# yum list kubectl --showduplicates  #查看历史版本(可选)
# yum install -y kubelet-1.23.17  kubeadm-1.23.17 kubectl-1.23.17   #安装1.23.17版本的k8s

# systemctl enable --now kubelet  #启动

# systemctl status kubelet

注:
kubelet 现在每隔几秒就会重启,因为它陷入了一个等待 kubeadm 指令的死循环,先忽略它的状态

master初始化

在master节点初始化
[root@k8s-master ~]# kubeadm init \
--apiserver-advertise-address=192.168.61.134 \
--image-repository registry.cn-hangzhou.aliyuncs.com/google_containers \
--kubernetes-version v1.23.17 \
--service-cidr=10.96.0.0/16 \
--pod-network-cidr=10.244.0.0/16 

参数说明
--apiserver-advertise-address 集群通告地址
--image-repository 由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里指定阿里云镜像仓库地址
--kubernetes-version K8s版本,与上面安装的一致
--service-cidr 集群内部虚拟网络,Pod统一访问入口
--pod-network-cidr Pod网络,与下面部署的CNI网络组件yaml中保持一致

如下图所示,初始化成功

 查看master上pull下来的镜像,如果初始化失败需要提前下载好

初始化之后,会输出一个join命令,先复制出来,node节点加入master会使用。

记录终端的输出参数,翻译后的意思:

可以通过在每个作为根节点上运行以下操作来加入任意数量的工作节点:
kubeadm join 192.168.61.134:6443 --token bl47ue.2dvtzy13glrxcjim \

--discovery-token-ca-cert-hash sha256:93e98df5c883fb4a99be520e54f33d9ea74cf1d4e38a6831185f20960c910cfa

根据提示执行
[root@k8s-master ~]# mkdir -p $HOME/.kube
[root@k8s-master ~]# cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@k8s-master ~]# chown $(id -u):$(id -g) $HOME/.kube/config
查看node状态
[root@k8s-master ~]# kubectl get nodes
NAME         STATUS     ROLES                  AGE     VERSION
k8s-master   NotReady   control-plane,master   4m35s   v1.23.17

注:
k8s-master的状态为NotReady是因为没有安装网络插件,下面我们来安装calico,当然安装其他支持k8s的网络插件也可以。

只在master上操作

Calico是一个纯三层的数据中心网络方案,是目前Kubernetes主流的网络方案。

calico支持k8s版本查看

https://projectcalico.docs.tigera.io/getting-started/kubernetes/requirements

[root@k8s-master ~]# wget  https://docs.projectcalico.org/v3.24/manifests/calico.yaml     #根据k8s版本选取calico版本,这里选择v3.24可以兼容k8s1.23
[root@k8s-master ~]# ls
anaconda-ks.cfg calico.yaml

下载完后还需要修改里面定义Pod网络(CALICO_IPV4POOL_CIDR),与前面kubeadm init的 --pod-network-cidr指定的一样。

修改完后文件后,进行部署

 

 进行安装calico

[root@k8s-master ~]# kubectl apply -f calico.yaml

 

只有网络插件也安装配置完成之后,master才能会显示为ready状态
[root@k8s-master ~]# kubectl get nodes
NAME         STATUS   ROLES                  AGE   VERSION
k8s-master   Ready    control-plane,master   21h   v1.23.17

[root@k8s-master ~]# kubectl get pod -A

注:pod的状态都是running代表所有插件安装、运行正常

网络插件的pod是以calico命名的,pod启动需要时间,多查看几次pod的状态。大概等待了3分钟pod才全部running,和机器的性能有关

node加入master

分别在node1和node2上操作

node1:执行
[root@k8s-node1 ~]# kubeadm join 192.168.61.134:6443 --token bl47ue.2dvtzy13glrxcjim \

--discovery-token-ca-cert-hash sha256:93e98df5c883fb4a99be520e54f33d9ea74cf1d4e38a6831185f20960c910cfa

node2:执行

[root@k8s-node2 ~]# kubeadm join 192.168.61.134:6443 --token bl47ue.2dvtzy13glrxcjim \

--discovery-token-ca-cert-hash sha256:93e98df5c883fb4a99be520e54f33d9ea74cf1d4e38a6831185f20960c910cfa

注:

输出上面参数代表node节点加入成功

默认token有效期为24小时,当过期之后,该token就不可用了。这时就需要重新创建token,可以直接使用命令快捷生成新令牌:

kubeadm token create --print-join-command  (不选)

部署2个master高可用部署方式,也是在这一步的时候,使用添加主节点的命令即可

验证集群节点状态
[root@k8s-master ~]# kubectl get nodes
NAME         STATUS   ROLES                  AGE     VERSION
k8s-master   Ready    control-plane,master   20m     v1.23.17
k8s-node1    Ready    <none>                 3m58s   v1.23.17
k8s-node2    Ready    <none>                 3m44s   v1.23.17

至此,k8s安装部署完成,接下来我们来安装仪表盘

只在master执行以下操作

Dashboard是官方提供的一个UI,可用于基本管理K8s资源。
kubernetes官方提供的可视化界面

https://github.com/kubernetes/dashboard

https://github.com/kubernetes/dashboard/releases

选取兼容版本

[root@k8s-master ~]# wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.5.1/aio/deploy/recommended.yaml

 默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:

添加参数:仪表盘部署在master节点上

[root@k8s-master ~]# vim recommended.yaml

...


kind: Service

apiVersion: v1

metadata:

  labels:

    k8s-app: kubernetes-dashboard

  name: kubernetes-dashboard

  namespace: kubernetes-dashboard

spec:

  ports:

    - port: 443

      targetPort: 8443

      nodePort: 30001 #新增

  selector:

    k8s-app: kubernetes-dashboard

  type: NodePort #新增

...

 

安装

[root@k8s-master ~]# kubectl apply -f recommended.yaml 

[root@k8s-master ~]# kubectl get pods -n kubernetes-dashboard
NAME                                         READY   STATUS    RESTARTS   AGE
dashboard-metrics-scraper-799d786dbf-5s6zb   1/1     Running   0          68s
kubernetes-dashboard-fb8648fd9-wg7df         1/1     Running   0          68s

 查看30001端口

访问仪表盘

https://master:端口   https://192.168.61.134:30001

创建访问账号
创建service account并绑定默认cluster-admin管理员集群角色:
 # 创建用户
kubectl create serviceaccount dashboard-admin -n kube-system
# 用户授权
kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
# 获取用户Token
kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')

  #复制保存返回值,这是登陆页面的key

eyJhbGciOiJSUzI1NiIsImtpZCI6InJzT2VOMmJobHVQb1lXZkU0bHJUNk1yTmxtMjJWZVhGZ0dqdEc2U2lQWEUifQ.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlLXN5c3RlbSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJkYXNoYm9hcmQtYWRtaW4tdG9rZW4tNTk0bmgiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC5uYW1lIjoiZGFzaGJvYXJkLWFkbWluIiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQudWlkIjoiMjIzNjI5NzMtN2U0Ny00YWZiLWJlOWMtNGYzNzQ4ZDFkMjIyIiwic3ViIjoic3lzdGVtOnNlcnZpY2VhY2NvdW50Omt1YmUtc3lzdGVtOmRhc2hib2FyZC1hZG1pbiJ9.Sl21KT5XMBZwCfsXlOEFxnQQ_8Jd6wnMqTpAHubGP6H_GLusW2dAm3wbT14MfohkAjOnugYXxkHWrPqUvikVoSB2kmikXvAjAtheNWjdJd8JQ7PAbduC_1EOlBgrpIbprXTJiXl2cWlgwSZRnWMjnmxO1VHpq2cAK5T_wjlzmj4j1pgdJslzdaWoT-JHJUAgeUxCuhYoInEnbCFfDj08yMt5cwRqOLWHoQUu4sFF5T4qIUHmIRjrlGhw_0sPFrM0e3zfgHKH-o8zQ1DKawyHKRFMhsxlggFrm-rf0aR-NknuSfRBOBlU0BraVRQmvHCfM436hhhohT6db8ULRc97KA

输入令牌,登录

#仪表盘搭建完成!

测试安装redis

[root@k8s-master ~]# kubectl run myredis02  --image=redis:5.0.10

 后面一定要做完

安装nginx

编辑nginx-deployment.yaml

apiVersion: apps/v1
kind: Deploymentmetadata:
  name: nginx-deployment
  labels:
    app: nginxspec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:1.21.6
        ports:
        - containerPort: 80
        resources:
          requests:
            cpu: 1
            memory: 500Mi
          limits:
            cpu: 2
            memory: 1024Mi

执行yml文件创建pod

[root@master ~]# kubectl apply -f nginx-deployment.yaml
deployment.apps/nginx-deployment created
[root@master ~]# kubectl get deployment
NAME               READY   UP-TO-DATE   AVAILABLE   AGE
nginx-deployment   3/3     3            3           20s
[root@k8s-master ~]# kubectl get pods
NAME                               READY   STATUS    RESTARTS   AGE
myredis                            1/1     Running   0          31m
myredis02                          1/1     Running   0          24m
nginx-deployment-dbf85d68d-6hf4g   1/1     Running   0          6m8s
nginx-deployment-dbf85d68d-7w5g9   1/1     Running   0          6m8s
nginx-deployment-dbf85d68d-b8ktq   1/1     Running   0          2m32s

创建 service, 并让外部访问

[root@master ~]# cat nginx-service.yaml 
apiVersion: v1
kind: Servicemetadata:
  name: nginx-service
  labels:
    app: nginxspec:
  ports:
  - port: 88
    targetPort: 80
    nodePort: 30003
  selector:
    app: nginx
  type: NodePort

[root@master ~]# kubectl create -f nginx-service.yaml
service/nginx-service created
[root@k8s-master ~]#  kubectl get svc
NAME            TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE
kubernetes      ClusterIP   10.96.0.1       <none>        443/TCP        128m
nginx-service   NodePort    10.96.185.175   <none>        88:30003/TCP   5m55s

访问nginx

敲重点:验证k8s强大的自愈能力

  1. 删除一个pod
[root@master ~]# kubectl get pods 
NAME                             READY   STATUS    RESTARTS   AGE
nginx-57787bbfc6-7fwkx   1/1     Running   0          6m32s
nginx-57787bbfc6-j4p5c   1/1     Running   0          6m32s
nginx-57787bbfc6-z79kb   1/1     Running   0          6m32s
[root@master ~]# kubectl delete pods nginx-57787bbfc6-7fwkx  
pod "nginx-57787bbfc6-7fwkx" deleted

2. 自动补上一个pod

[root@master ~]# 
[root@master ~]# kubectl get pods 
NAME                             READY   STATUS    RESTARTS   AGE
nginx-57787bbfc6-4jxtw   1/1     Running   0          10s
nginx-57787bbfc6-j4p5c   1/1     Running   0          7m12s
nginx-57787bbfc6-z79kb   1/1     Running   0          7m12s

重点验证:关机重启k8s集群是否会自启动

关机前截图留证

 

 

 

关机后

所有主机执行reboot,然后查看集群状态

 

 

k8s集群自修复成功

 

常见的问题

  待更新......

扩容master

  待更新......

配置高可用的master

  待更新......

k8s集群的监控

  待更新......

你的支持就是我最大的动力,如果对你有帮助、双击点赞。

 

标签:kubectl,在线,--,nginx,master,Kubeadm,k8s,root
From: https://www.cnblogs.com/xgsh/p/17283917.html

相关文章

  • 没有在线调试功能时,调试代码心得
    1、串口输出数据2、极端情况,没有额外串口时,可以把一个串口先当调试口用,先调试其他功能3、可以控制printf是否可以输出信息4、生成可执行文件时,生成一版带printf输出,一版不带printf输出,调试时两者交替用5、串口发送数据是否正常,接收处理数据是否正常6、串口通信必须保证一端功......
  • 56、K8S-监控机制-Prometheus-配置解析、标签管理
    Kubernetes学习目录1、配置文件1.1、配置简介1.1.1、简介Prometheus可以通过命令行或者配置文件的方式对服务进行配置。一般情况下,命令行方式一般用于不可变的系统参数配置,例如存储位置、要保留在磁盘和内存中的数据量等;配置文件用于定义与数据动态获取相关的配置选项和文件......
  • k8s 会把自己的ca.pem 注入到 /var/run/secrets/kubernetes.io/serviceaccount/ 目录
     k8s会把自己的ca.pem注入到/var/run/secrets/kubernetes.io/serviceaccount/目录下 生成三个文件lrwxrwxrwx1rootroot13Dec1201:56ca.crt->..data/ca.crtlrwxrwxrwx1rootroot16Dec1201:56namespace->..data/namespacelrwxrwxrwx1rootroot12D......
  • k8s
    title:FIT5225ASS1K8S简介K8S是负责自动化运维管理多个Docker程序的集群传统的后端部署方式当请求量上来,已部署的服务会响应不过来。传统的做法往往是,如果请求量、内存、CPU超过阈值做了告警,运维马上再加几台服务器,部署好服务之后,接入负载均衡来分担已有服务的压力。K8S自......
  • MQTT(EMQX) - SpringBoot 整合MQTT 连接池 Demo - 附源代码 + 在线客服聊天架构图
    MQTT(EMQX)-LinuxCentOSDocker安装MQTT概述MQTT(MessageQueueTelemetryTransport)是一个轻量级传输协议,它被设计用于轻量级的发布/订阅式消息传输,MQTT协议针对低带宽网络,低计算能力的设备,做了特殊的优化。是一种简单、稳定、开放、轻量级易于实现的消息协议,在物联网......
  • Three.js 进阶之旅:全景漫游-高阶版在线看房
    声明:本文涉及图文和模型素材仅用于个人学习、研究和欣赏,请勿二次修改、非法传播、转载、出版、商用、及进行其他获利行为。摘要专栏上篇文章《Three.js进阶之旅:全景漫游-初阶移动相机版》中通过创建多个球体全景场景并移动相机和控制器的方式实现了多个场景之间的穿梭漫游。这......
  • 基于k8s的web集群项目
     准备5台linux机器   系统是centos7.9 2核/4G的配置1.k8s的部署安装1.1.准备环境:先给每台服务器起好名字,使用固定的ip地址,防止后面因为ip地址的变化,导致整个集群异常(每台机器)master192.168.18.139node1192.168.18.138node2192.168.18.137......
  • 54、K8S-监控机制-Prometheus-node_exporter部署
    Kubernetes学习目录1、node_exporter部署1.1、安装主机说明这里分别安装到node1和node2节点上。1.2、软件安装1.2.1、解压软件mkdir/data/{softs,server}-ptarxvfnode_exporter-1.5.0.linux-amd64.tar.gz-C/data/server/1.2.2、程序位置重新调整ln-s/data/s......
  • K8S架构原理详解
    Kubernetes是什么,为什么上手这么难? Kubernetes是一个基于容器技术的分布式集群管理系统。它是谷歌在大规模应用容器技术方面数十年经验的实际成果。因此,支持大规模的集群管理承载着非常多的组件,分布式本身的复杂度非常高。 Kubernetes到底有什么? 接下来我们一步步来看看K......
  • 从k8s 的声明式API 到 GPT的 提示语
    命令式命令式有时也称为指令式,命令式的场景下,计算机只会机械的完成指定的命令操作,执行的结果就取决于执行的命令是否正确。GPT之前的人工智能就是这种典型的命令式,通过不断的炼丹,告诉计算机要怎么做,计算机只是机械的完成指定场景下的任务。声明式声明式也称为描述式或者申明式,这......