生产环境可以采取这种方式安装k8sv1.23.17,版本兼容很好,你的支持就是我最大的动力。
服务器要求:
建议最小硬件配置:2核CPU、2G内存、20G硬盘
服务器最好可以访问外网,会有从网上拉取镜像需求,如果服务器不能上网,需要提前下载对应镜像并导入节点
软件环境:
操作系统:centos7.9_x64(mini)
Docker:20-ce
K8s:1.23
服务器规划:(本实验采用虚拟机)
k8s-master:192.168.61.134
k8s-node1:192.168.61.135
k8s-node2:192.168.61.136
初始化环境
安装环境准备:下面的操作需要在所有的节点上执行。
# 关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
# 关闭selinux
sed -i 's/enforcing/disabled/' /etc/selinux/config # 永久
setenforce 0 # 临时
# 关闭swap
swapoff -a # 临时
sed -ri 's/.*swap.*/#&/' /etc/fstab # 永久
# 根据规划设置主机名
hostnamectl set-hostname <hostname>
# 添加hosts解析
cat >> /etc/hosts << EOF
192.168.61.134 k8s-master
192.168.61.135 k8s-node1
192.168.61.136 k8s-node2
EOF
# 将桥接的IPv4流量传递到iptables的链
cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system # 生效
# 时间同步
yum -y install chrony
systemctl restart chronyd && systemctl enable chronyd
chronyc sources
# 下载阿里源
wget http://mirrors.aliyun.com/repo/Centos-7.repo -O /etc/yum.repos.d/CentOS-Base.repo
wget http://mirrors.aliyun.com/repo/epel-7.repo -P /etc/yum.repos.d/
yum clean all
yum makecache
安装docker
安装容器环境,下面的操作需要在所有的节点上执行。
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
yum list docker-ce --showduplicates #查看历史版本
yum install -y docker-ce-20.10.23 #安装指定的版本
yum install -y docker-ce #也可以安装最新版(可选)
#编辑并添加,必须
vim /etc/docker/daemon.json
{
"registry-mirrors": ["https://oychq53f.mirror.aliyuncs.com"],
"exec-opts": ["native.cgroupdriver=systemd"]
}
#启动docker
# systemctl enable docker && systemctl restart docker
# systemctl status docker
# docker info
安装kubelet、kubeadm、kubectl
配置kubernetes源 # cat <<EOF > /etc/yum.repos.d/kubernetes.repo [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=0 repo_gpgcheck=0 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF
所有节点都安装kubeadm、kubelet、kubectl # yum list kubectl --showduplicates #查看历史版本(可选) # yum install -y kubelet-1.23.17 kubeadm-1.23.17 kubectl-1.23.17 #安装1.23.17版本的k8s
# systemctl enable --now kubelet #启动
# systemctl status kubelet
注:
kubelet 现在每隔几秒就会重启,因为它陷入了一个等待 kubeadm 指令的死循环,先忽略它的状态
master初始化
在master节点初始化 [root@k8s-master ~]# kubeadm init \ --apiserver-advertise-address=192.168.61.134 \ --image-repository registry.cn-hangzhou.aliyuncs.com/google_containers \ --kubernetes-version v1.23.17 \ --service-cidr=10.96.0.0/16 \ --pod-network-cidr=10.244.0.0/16 参数说明 --apiserver-advertise-address 集群通告地址 --image-repository 由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里指定阿里云镜像仓库地址 --kubernetes-version K8s版本,与上面安装的一致 --service-cidr 集群内部虚拟网络,Pod统一访问入口 --pod-network-cidr Pod网络,与下面部署的CNI网络组件yaml中保持一致
如下图所示,初始化成功
查看master上pull下来的镜像,如果初始化失败需要提前下载好
初始化之后,会输出一个join命令,先复制出来,node节点加入master会使用。
记录终端的输出参数,翻译后的意思:
可以通过在每个作为根节点上运行以下操作来加入任意数量的工作节点:
kubeadm join 192.168.61.134:6443 --token bl47ue.2dvtzy13glrxcjim \
--discovery-token-ca-cert-hash sha256:93e98df5c883fb4a99be520e54f33d9ea74cf1d4e38a6831185f20960c910cfa
根据提示执行 [root@k8s-master ~]# mkdir -p $HOME/.kube [root@k8s-master ~]# cp -i /etc/kubernetes/admin.conf $HOME/.kube/config [root@k8s-master ~]# chown $(id -u):$(id -g) $HOME/.kube/config
查看node状态 [root@k8s-master ~]# kubectl get nodes NAME STATUS ROLES AGE VERSION k8s-master NotReady control-plane,master 4m35s v1.23.17
注:
k8s-master的状态为NotReady是因为没有安装网络插件,下面我们来安装calico,当然安装其他支持k8s的网络插件也可以。
只在master上操作
Calico是一个纯三层的数据中心网络方案,是目前Kubernetes主流的网络方案。
calico支持k8s版本查看
https://projectcalico.docs.tigera.io/getting-started/kubernetes/requirements
[root@k8s-master ~]# wget https://docs.projectcalico.org/v3.24/manifests/calico.yaml #根据k8s版本选取calico版本,这里选择v3.24可以兼容k8s1.23 [root@k8s-master ~]# ls anaconda-ks.cfg calico.yaml
下载完后还需要修改里面定义Pod网络(CALICO_IPV4POOL_CIDR),与前面kubeadm init的 --pod-network-cidr指定的一样。
修改完后文件后,进行部署
进行安装calico
[root@k8s-master ~]# kubectl apply -f calico.yaml
只有网络插件也安装配置完成之后,master才能会显示为ready状态 [root@k8s-master ~]# kubectl get nodes NAME STATUS ROLES AGE VERSION k8s-master Ready control-plane,master 21h v1.23.17
[root@k8s-master ~]# kubectl get pod -A
注:pod的状态都是running代表所有插件安装、运行正常
网络插件的pod是以calico命名的,pod启动需要时间,多查看几次pod的状态。大概等待了3分钟pod才全部running,和机器的性能有关
node加入master
分别在node1和node2上操作
node1:执行
[root@k8s-node1 ~]# kubeadm join 192.168.61.134:6443 --token bl47ue.2dvtzy13glrxcjim \
--discovery-token-ca-cert-hash sha256:93e98df5c883fb4a99be520e54f33d9ea74cf1d4e38a6831185f20960c910cfa
node2:执行
[root@k8s-node2 ~]# kubeadm join 192.168.61.134:6443 --token bl47ue.2dvtzy13glrxcjim \
--discovery-token-ca-cert-hash sha256:93e98df5c883fb4a99be520e54f33d9ea74cf1d4e38a6831185f20960c910cfa
注:
输出上面参数代表node节点加入成功
默认token有效期为24小时,当过期之后,该token就不可用了。这时就需要重新创建token,可以直接使用命令快捷生成新令牌:
kubeadm token create --print-join-command (不选)
部署2个master高可用部署方式,也是在这一步的时候,使用添加主节点的命令即可
验证集群节点状态 [root@k8s-master ~]# kubectl get nodes NAME STATUS ROLES AGE VERSION k8s-master Ready control-plane,master 20m v1.23.17 k8s-node1 Ready <none> 3m58s v1.23.17 k8s-node2 Ready <none> 3m44s v1.23.17
至此,k8s安装部署完成,接下来我们来安装仪表盘
只在master执行以下操作
Dashboard是官方提供的一个UI,可用于基本管理K8s资源。
kubernetes官方提供的可视化界面
https://github.com/kubernetes/dashboard
https://github.com/kubernetes/dashboard/releases
选取兼容版本
[root@k8s-master ~]# wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.5.1/aio/deploy/recommended.yaml
默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:
添加参数:仪表盘部署在master节点上
[root@k8s-master ~]# vim recommended.yaml
...
kind: Service
apiVersion: v1
metadata:
labels:
k8s-app: kubernetes-dashboard
name: kubernetes-dashboard
namespace: kubernetes-dashboard
spec:
ports:
- port: 443
targetPort: 8443
nodePort: 30001 #新增
selector:
k8s-app: kubernetes-dashboard
type: NodePort #新增
...
安装
[root@k8s-master ~]# kubectl apply -f recommended.yaml
[root@k8s-master ~]# kubectl get pods -n kubernetes-dashboard NAME READY STATUS RESTARTS AGE dashboard-metrics-scraper-799d786dbf-5s6zb 1/1 Running 0 68s kubernetes-dashboard-fb8648fd9-wg7df 1/1 Running 0 68s
查看30001端口
访问仪表盘
https://master:端口 https://192.168.61.134:30001
创建访问账号 创建service account并绑定默认cluster-admin管理员集群角色: # 创建用户 kubectl create serviceaccount dashboard-admin -n kube-system # 用户授权 kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin # 获取用户Token kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')
#复制保存返回值,这是登陆页面的key
eyJhbGciOiJSUzI1NiIsImtpZCI6InJzT2VOMmJobHVQb1lXZkU0bHJUNk1yTmxtMjJWZVhGZ0dqdEc2U2lQWEUifQ.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlLXN5c3RlbSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJkYXNoYm9hcmQtYWRtaW4tdG9rZW4tNTk0bmgiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC5uYW1lIjoiZGFzaGJvYXJkLWFkbWluIiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQudWlkIjoiMjIzNjI5NzMtN2U0Ny00YWZiLWJlOWMtNGYzNzQ4ZDFkMjIyIiwic3ViIjoic3lzdGVtOnNlcnZpY2VhY2NvdW50Omt1YmUtc3lzdGVtOmRhc2hib2FyZC1hZG1pbiJ9.Sl21KT5XMBZwCfsXlOEFxnQQ_8Jd6wnMqTpAHubGP6H_GLusW2dAm3wbT14MfohkAjOnugYXxkHWrPqUvikVoSB2kmikXvAjAtheNWjdJd8JQ7PAbduC_1EOlBgrpIbprXTJiXl2cWlgwSZRnWMjnmxO1VHpq2cAK5T_wjlzmj4j1pgdJslzdaWoT-JHJUAgeUxCuhYoInEnbCFfDj08yMt5cwRqOLWHoQUu4sFF5T4qIUHmIRjrlGhw_0sPFrM0e3zfgHKH-o8zQ1DKawyHKRFMhsxlggFrm-rf0aR-NknuSfRBOBlU0BraVRQmvHCfM436hhhohT6db8ULRc97KA
输入令牌,登录
#仪表盘搭建完成!
测试安装redis
[root@k8s-master ~]# kubectl run myredis02 --image=redis:5.0.10
后面一定要做完
安装nginx
编辑nginx-deployment.yaml
apiVersion: apps/v1 kind: Deploymentmetadata: name: nginx-deployment labels: app: nginxspec: replicas: 3 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: - name: nginx image: nginx:1.21.6 ports: - containerPort: 80 resources: requests: cpu: 1 memory: 500Mi limits: cpu: 2 memory: 1024Mi
执行yml文件创建pod
[root@master ~]# kubectl apply -f nginx-deployment.yaml deployment.apps/nginx-deployment created [root@master ~]# kubectl get deployment NAME READY UP-TO-DATE AVAILABLE AGE nginx-deployment 3/3 3 3 20s [root@k8s-master ~]# kubectl get pods NAME READY STATUS RESTARTS AGE myredis 1/1 Running 0 31m myredis02 1/1 Running 0 24m nginx-deployment-dbf85d68d-6hf4g 1/1 Running 0 6m8s nginx-deployment-dbf85d68d-7w5g9 1/1 Running 0 6m8s nginx-deployment-dbf85d68d-b8ktq 1/1 Running 0 2m32s
创建 service, 并让外部访问
[root@master ~]# cat nginx-service.yaml apiVersion: v1 kind: Servicemetadata: name: nginx-service labels: app: nginxspec: ports: - port: 88 targetPort: 80 nodePort: 30003 selector: app: nginx type: NodePort [root@master ~]# kubectl create -f nginx-service.yaml service/nginx-service created [root@k8s-master ~]# kubectl get svc NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 128m nginx-service NodePort 10.96.185.175 <none> 88:30003/TCP 5m55s
访问nginx
敲重点:验证k8s强大的自愈能力
- 删除一个pod
[root@master ~]# kubectl get pods NAME READY STATUS RESTARTS AGE nginx-57787bbfc6-7fwkx 1/1 Running 0 6m32s nginx-57787bbfc6-j4p5c 1/1 Running 0 6m32s nginx-57787bbfc6-z79kb 1/1 Running 0 6m32s [root@master ~]# kubectl delete pods nginx-57787bbfc6-7fwkx pod "nginx-57787bbfc6-7fwkx" deleted
2. 自动补上一个pod
[root@master ~]# [root@master ~]# kubectl get pods NAME READY STATUS RESTARTS AGE nginx-57787bbfc6-4jxtw 1/1 Running 0 10s nginx-57787bbfc6-j4p5c 1/1 Running 0 7m12s nginx-57787bbfc6-z79kb 1/1 Running 0 7m12s
重点验证:关机重启k8s集群是否会自启动
关机前截图留证
关机后
所有主机执行reboot,然后查看集群状态
k8s集群自修复成功
常见的问题
待更新......
扩容master
待更新......
配置高可用的master
待更新......
k8s集群的监控
待更新......
你的支持就是我最大的动力,如果对你有帮助、双击点赞。
标签:kubectl,在线,--,nginx,master,Kubeadm,k8s,root From: https://www.cnblogs.com/xgsh/p/17283917.html