目录
1.Pod控制器及其作用
Pod控制器,又称之为工作负载(workload),是用于实现管理pod的中间层,确保pod资源符合预期的状态,pod的资源出现故障时,会尝试进行重启,当根据重启策略无效,则会重新新建pod的资源。
2.pod控制器类型
2.1 ReplicaSet:
代用户创建指定数量的pod副本,确保pod副本数量符合预期状态,并且支持滚动式自动扩容和缩容功能。
ReplicaSet主要三个组件组成:
(1)用户期望的pod副本数量
(2)标签选择器,判断哪个pod归自己管理
(3)当现存的pod数量不足,会根据pod资源模板进行新建
帮助用户管理无状态的pod资源,精确反应用户定义的目标数量,但是RelicaSet不是直接使用的控制器,而是使用Deployment。
2.2 Deployment
工作在ReplicaSet之上,用于管理无状态应用,目前来说最好的控制器。支持滚动更新和回滚功能,还提供声明式配置。
ReplicaSet 与Deployment 这两个资源对象逐步替换之前RC的作用。因为RC在滚动升级之后,会造成服务访问中断,于是K8S引入了Deployment资源
2.3 DaemonSet
用于确保集群中的每一个节点只运行特定的pod副本,通常用于实现系统级后台任务。比如ELK服务
特性:服务是无状态的
服务必须是守护进程
2.4 StatefulSet
管理有状态应用
2.5 Job
只要完成就立即退出,不需要重启或重建
2.6 Cronjob
周期性任务控制,不需要持续后台运行
3.Pod与控制器之间的关系
controllers:在集群上管理和运行容器的 pod 对象, 控制器 通过 label-selector 与 Pod 相关联。
Pod 通过控制器实现应用的运维,如伸缩,升级等。
3.1 Deployment
部署无状态应用
管理Pod和ReplicaSet
具有上线部署、副本设定、滚动升级、回滚等功能
提供声明式更新,例如只更新一个新的image
应用场景:web服务
3.2 SatefulSet
部署有状态应用
稳定的持久化存储,即Pod重新调度后还是能访问到相同的持久化数据,基于PVC来实现
稳定的网络标志,即Pod重新调度后其PodName和HostName不变,基于Headless Service(即没有Cluster IP的Service)来实现
有序部署,有序扩展,即Pod是有顺序的,在部署或者扩展的时候要依据定义的顺序依次进行(即从0到N-1,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态),基于init containers来实现
有序收缩,有序删除(即从N-1到0)
常见的应用场景:数据库
https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/
创建SatefulSet控制器
创建SatefulSet控制器,必须先创建Headless Service
vim demo1-svc.yaml
apiVersion: v1
kind: Service
metadata:
labels:
app: demo1-svc
name: demo1-svc
namespace: xy101
spec:
ports:
- name: http
port: 8080
protocol: TCP
targetPort: 80
selector:
app: myapp
type: ClusterIP
clusterIP: None #设置为none即创建Headless Service
kubectl apply -f demo1-svc.yaml
kubectl get svc -n xy101
vim demo2-sts.yaml
apiVersion: apps/v1
kind: StatefulSet
metadata:
labels:
app: demo2-sts
name: demo2-sts
namespace: xy101
spec:
serviceName: demo1-svc #此处名字必与创建的svc资源名称一致
replicas: 3
selector:
matchLabels:
app: myapp
template:
metadata:
labels:
app: myapp
spec:
containers:
- image: soscscs/myapp:v1
name: myapp
ports:
- containerPort: 80
resources: {}
kubectl apply -f demo2-sts.yaml
kubectl get pod -n xy101
扩容
kubectl scale -n xy101 statefulset demo2-sts --replicas=6
SatefulSet控制器创建资源、扩容都是有序创建
缩容
kubectl scale -n xy101 statefulset demo2-sts --replicas=3
SatefulSet控制器缩容是倒序进行
删除
当删除-个 Statefulset 时,该 Statefulset 不提供任何终止 Pod 的保证。为了实现 Statefulset 中的 Pod 可以有序且体面地终止,可以在删除之前将 Statefulset 缩容到 0
kubectl delete -n xy101 pod demo2-sts-1 #删除前后pod名称不会发生改变
解析pod的ip
kubectl run -n xy101 demo-pod --image=soscscs/myapp:v1 #测试pod
kubectl exec -it -n xy101 demo-pod -- sh
cat /etc/resolv.conf
nslookup pod名称.svc名称.统一的域名
nslookup demo2-sts-0.demo1-svc.xy101.svc.cluster.local
kubectl scale -n xy101 statefulset demo2-sts --replicas=0
kubectl scale -n xy101 statefulset demo2-sts --replicas=3
kubectl exec -it -n xy101 demo-pod -- sh
nslookup demo2-sts-0.demo1-svc.xy101.svc.cluster.local
滚动升级
kubectl set image -n xy101 sts demo2-sts myapp=soscscs/myapp:v2 #倒序进行升级
持久化存储
vim demo2-sts.yaml
apiVersion: apps/v1
kind: StatefulSet
metadata:
labels:
app: demo2-sts
name: demo2-sts
namespace: xy101
spec:
serviceName: demo1-svc
replicas: 3
selector:
matchLabels:
app: myapp
template:
metadata:
labels:
app: myapp
spec:
containers:
- image: soscscs/myapp:v1
name: myapp
ports:
- containerPort: 80
resources: {}
volumeMounts:
- name: demo2-sts-pvc
mountPath: /mnt
volumeClaimTemplates:
- metadata:
name: demo2-sts-pvc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 2Gi
storageClassName: nfs-client-storageclass
kubectl apply -f demo2-sts.yaml
kubectl get pod -n xy101
kubectl get pv,pvc -n xy101
[root@master01 day12]# kubectl exec -it -n xy101 demo2-sts-0 -- sh
/ # cd /mnt
/mnt # echo '123' > tan.txt
/mnt # exit
[root@master01 day12]# kubectl exec -it -n xy101 demo2-sts-1 -- sh
/ # cd /mnt
/mnt # echo '234' > chen.txt
/mnt # exit
[root@master01 day12]# kubectl delete -n xy101 pod demo2-sts-0
pod "demo2-sts-0" deleted
[root@master01 day12]# kubectl delete -n xy101 pod demo2-sts-1
pod "demo2-sts-1" deleted
[root@master01 day12]# kubectl get pod -n xy101
NAME READY STATUS RESTARTS AGE
demo-pod 1/1 Running 0 176m
demo2-sts-0 1/1 Running 0 6s
demo2-sts-1 1/1 Running 0 2s
demo2-sts-2 1/1 Running 0 7m5s
#无论怎么删除pod,数据都不会丢失
3.3 DaemonSet
DaemonSet 确保全部(或者一些)Node 上运行同一个 Pod 的副本。当有 Node 加入集群时,也会为他们新增一个 Pod 。当有 Node 从集群移除时,这些 Pod 也会被回收。删除 DaemonSet 将会删除它创建的所有 Pod。
使用 DaemonSet 的一些典型用法:
●运行集群存储 daemon,例如在每个 Node 上运行 glusterd、ceph。
●在每个 Node 上运行日志收集 daemon,例如fluentd、logstash。
●在每个 Node 上运行监控 daemon,例如 Prometheus Node Exporter、collectd、Datadog 代理、New Relic 代理,或 Ganglia gmond。
应用场景:Agent
vim demo3-ds.yaml
apiVersion: apps/v1
kind: DaemonSet
metadata:
labels:
app: myapp
name: myapp-ds
namespace: xy101
spec:
selector:
matchLabels:
app: myapp
template:
metadata:
labels:
app: myapp
spec:
containers:
- image: soscscs/myapp:v1
name: myapp
ports:
- containerPort: 80
resources: {}
3.4 job
Job分为普通任务(Job)和定时任务(CronJob)
常用于运行那些仅需要执行一次的任务
应用场景:数据库迁移、批处理脚本、kube-bench扫描、离线数据处理,视频解码等业务
https://kubernetes.io/docs/concepts/workloads/controllers/jobs-run-to-completion/
vim demo4-job.yaml
apiVersion: batch/v1
kind: Job
metadata:
labels:
app: demo4-job
name: demo4-job
namespace: xy101
spec:
template:
metadata:
labels:
app: myapp
spec:
volumes:
- name: scj-vol
hostPath:
path: /data/volumes
type: DirectoryOrCreate
containers:
- image: soscscs/myapp:v1
name: myapp
ports:
- containerPort: 80
command:
- sh
- -c
- "for i in $(seq 1 10); do echo scj like xjj on $(data) >> /mnt/scj.txt; sleep 1; done; exit 0" #只执行十次每隔一秒
volumeMounts:
- name: scj-vol
mountPath: /mnt
resources: {}
restartPolicy: Never
vim demo4-job.yaml
apiVersion: batch/v1
kind: Job
metadata:
labels:
app: demo4-job
name: demo4-job
namespace: xy101
spec:
backoffLimit: 2 #设置job失败后进行重试的次数
template:
metadata:
labels:
app: myapp
spec:
volumes:
- name: scj-vol
hostPath:
path: /data/volumes
type: DirectoryOrCreate
containers:
- image: soscscs/myapp:v1
name: myapp
ports:
- containerPort: 80
command:
- sh
- -c
- "for i in $(seq 1 10); do echo scj like xjj on $(data) >> /mnt/scj.txt; sleep 1; done; exit 1"
volumeMounts:
- name: scj-vol
mountPath: /mnt
resources: {}
restartPolicy: Never
kubectl apply -f demo4-job.yaml
3.5 cronjob
周期性任务,像Linux的Crontab一样。
周期性任务
应用场景:通知,备份
https://kubernetes.io/docs/tasks/job/automated-tasks-with-cron-jobs/
vim demo5-cj.yaml
apiVersion: batch/v1beta1
kind: CronJob
metadata:
labels:
app: demo5-cj
name: demo5-cj
namespace: xy101
spec:
schedule: "*/1 * * * *" #周期性执行任务
concurrencyPolicy: Allow #CronJob 允许并发任务执行
startingDeadlineSeconds: 20 #过了截止时间20秒,CronJob 就不会开始任务
successfulJobsHistoryLimit: 3 #保留的成功完成的任务数
failedJobsHistoryLimit: 3 #保留已完成和失败的任务数
jobTemplate:
spec:
#backoffLimit: 2
template:
metadata:
labels:
app: myapp
spec:
volumes:
- name: scj-vol
hostPath:
path: /data/volumes
type: DirectoryOrCreate
containers:
- image: soscscs/myapp:v1
name: myapp
ports:
- containerPort: 80
command:
- sh
- -c
- "for i in $(seq 1 10); do echo scj like xjj on $(data) >> /mnt/scj.txt; sleep 1; done; exit 0"
volumeMounts:
- name: scj-vol
mountPath: /mnt
标签:控制器,xy101,demo2,myapp,sts,Pod,k8s,pod,name
From: https://blog.csdn.net/2402_83805984/article/details/141123079