简介
Controller Manager 由 kube-controller-manager 和 cloud-controller-manager 组成, 是Kubernetes 的大脑, 它通过 apiserver 监控整个集群的状态, 并确保集群处于预期的工作状态。
kube-controller-manager 由一系列的控制器组成
-
Replication Controller
-
Node Controller
-
CronJob Controller
-
DaemonSet Controller
-
Deployment Controller
-
Endpoint Controller
-
Garbage Collector
-
Namespace Controller
-
Job Controller
-
Pod AutoScaler
-
RelicaSet
-
Service Controller
-
ServiceAccount Controller
-
StatefulSet Controller
-
Volume Controller
-
Resource quota Controller
cloud-controller-manager 在 Kubernetes 启用 Cloud Provider 的时候才需要, 用来配合云服务提供商的控制, 也包括一系列的控制器
-
Node Controller
-
Route Controller
-
Service Controller
从v1.6开始,cloud provider已经经历了几次重大重构,以便在不修改Kubernetes核心代码的同时构建自定义的云服务商支持
常见Pod控制器及含义
ReplicaSet:适合无状态的服务部署
用户创建指定数量的pod副本数量,确保pod副本数量符合预期状态,并且支持滚动式自动扩容和缩容功能。
ReplicaSet主要三个组件组成:
-
用户期望的pod副本数量
-
标签选择器,判断哪个pod归自己管理
-
当现存的pod数量不足,会根据pod资源模板进行新建
帮助用户管理无状态的pod资源,精确反应用户定义的目标数量
Deployment:适合无状态的服务部署
工作在ReplicaSet之上,用于管理无状态应用,目前来说最好的控制器。支持滚动更新和回滚功能,还提供声明式配置。
StatefullSet:适合有状态的服务部署。需要学完存储卷后进行系统学习
DaemonSet:一次部署,所有的node节点都会部署
例如一些典型的应用场景:
-
运行集群存储 daemon,例如在每个Node上运行 glusterd、ceph
-
在每个Node上运行日志收集 daemon,例如 flfluentd、 logstash
-
在每个Node上运行监控 daemon,例如 Prometheus Node Exporter
用于确保集群中的每一个节点只运行特定的pod副本,通常用于实现系统级后台任务。比如ELK服务
特性:服务是无状态的
服务必须是守护进程
Job:一次性的执行任务。 只要完成就立即退出,不需要重启或重建
Cronjob:周期性的执行任务。 周期性任务控制,不需要持续后台运行
Replication Controller 控制器
replication controller简称RC,是kubernetes系统中的核心概念之一,简单来说,它其实定义了一个期望的场景,即声明某种pod的副本数量在任意时刻都复合某个预期值,所以RC的定义包含以下部分:
-
pod期待的副本数量
-
用于筛选目标pod的Label Selector
-
当pod的副本数量小于期望值时,用于创建新的pod的pod模板(template)
ReplicaSet
ReplicationController用来确保容器应用的副本数始终保持在用户定义的副本数,即如果有容器异常退出,会自动创建新的Pod来替代;而如果异常多出来的容器也会自动回收。
在新版本的Kubernetes中建议使用ReplicaSet来取代ReplicationController。ReplicaSet跟ReplicationController没有本质的不同,只是名字不一样,并且ReplicaSet支持集合式的selector
虽然ReplicaSet可以独立使用,但一般还是建议使用 Deployment 来自动管理ReplicaSet,这样就无需担心跟其他机制的不兼容问题(比如ReplicaSet不支持 rolling-update ,但Deployment支持)。
ReplicaSet模板说明
可以通过kubectl命令行方式获取详细配置信息
kubectl explain rs
kubectl explain rs.spec
kubectl explain rs.spec.template.spec
示例
controller/replicasetdemo.yml
apiVersion: apps/v1
kind: ReplicaSet
metadata:
name: replicasetdemo
labels:
app: replicasetdemo
spec:
replicas: 1
template:
metadata:
name: replicasetdemo
labels:
app: replicasetdemo
spec:
containers:
- name: replicasetdemo
image: nginx:1.17.10-alpine
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
restartPolicy: Always
selector:
matchLabels:
app: replicasetdemo
# 运行ReplicaSet
kubectl apply -f replicasetdemo.yml
# 查看rs控制器
kubectl get rs
# 查看pod信息
kubectl get pod
# 查看pod详细信息
kubectl describe pod replicasetdemo-t55tb
# 测试controller控制器下的pod删除、重新被controller控制器拉起
kubectl delete pod replicasetdemo-t55tb
kubectl get pod
# 修改pod的副本数量:通过命令行方式
kubectl scale replicaset replicasetdemo --replicas=3
kubectl get rs
# 修改pod的副本数量,改为5,通过资源清单方式,使用vim方式编辑
kubectl edit replicasets.apps replicasetdemo
kubectl get rs
# 显示pod的标签
kubectl get pod --show-labels
# 修改pod标签(label)
kubectl label pod replicasetdemo-fhbvq app=lagou --overwrite=True
# 再次显示pod的标签:原来pod的标签变了,发现多了一个pod,原来的rs中又重新拉起一个pod,说明rs是通过label去管理pod
kubectl get pod --show-labels
# 删除rs
kubectl delete rs replicasetdemo
# 修改了label的pod没有被删除,手动删除
kubectl delete pod replicasetdemo-fhbvq
总结
kubectl命令行工具适用于RC的绝大部分命令同样适用于ReplicaSet,此外,我们当前很少单独适用 ReplicaSet,它主要被Deployment这个更高层的资源对象所使用,从而形成一整套Pod创建,删除,更新的编排机制,我们在使用Deployment时无需关心它是如何维护和创建ReplicaSet的,这一切都是自动发生的
最后,总结一下RC(ReplicaSet)的一些特性和作用:
-
在绝大多数情况下,我们通过定义一个RC实现Pod的创建及副本数量的自动控制
-
在RC里包括完整的Pod定义模板
-
RC通过Label Selector机制实现对Pod副本的自动控制
-
通过改变RC里的Pod副本数量,可以实现Pod的扩容和缩容
-
通过改变RC里Pod模板中的镜像版本,可以实现滚动升级
Deployment
Deployment是kubernetes在1.2版本中引入的新概念,用于更好的解决Pod的编排问题,为此,Deployment在内部使用了ReplicaSet来实现目的,我们可以把Deployment理解为ReplicaSet的一次升级,两者的相似度超过90%
Deployment的使用场景有以下几个:
-
创建一个Deployment对象来生成对应的ReplicaSet并完成Pod副本的创建
-
检查Deployment的状态来看部署动作是否完成(Pod副本数量是否达到了预期的值)
-
更新Deployment以创建新的Pod(比如镜像升级)
-
如果当前Deployment不稳定,可以回滚到一个早先的Deployment版本
-
暂停Deployment以便于一次性修改多个PodTemplateSpec的配置项,之后在恢复Deployment,进行新的发布
-
扩展Deployment以应对高负载
-
查看Deployment的状态,以此作为发布是否成功的标志
-
清理不再需要的旧版本ReplicaSet
可以通过kubectl命令行方式获取Deployment模板说明信息
kubectl explain deploy
kubectl explain deploy.spec
kubectl explain deploy.spec.template.spec
部署示例
controller/deploymentdemo.yml
apiVersion: apps/v1
kind: Deployment
metadata:
name: deploymentdemo
labels:
app: deploymentdemo
spec:
replicas: 3
template:
metadata:
name: deploymentdemo
labels:
app: deploymentdemo
spec:
tolerations:
- key: "offline"
value: "testtaint"
effect: "NoSchedule"
operator: "Equal"
containers:
- name: deploymentdemo
image: nginx:1.17.10-alpine
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
restartPolicy: Always
selector:
matchLabels:
app: deploymentdemo
# 创建
kubectl apply -f deploymentdemo.yml
# 查看deployment
kubectl get deploy
# 查看rs,名称为 deployment名称+hashcode码
kubectl get rs
# 查看pod,rs名称+hashcode码组成
kubectl get pod
# 删除deploy
kubectl delete deploy deploymentdemo
镜像更新升级
命令行方式
# 升级nginx镜像版本为1.18.0
kubectl set image deployment deploymentdemo deploymentdemo=nginx:1.18.0-alpine
# 查看pod升级情况
kubectl get pods -w
# 查看pod内部nginx版本信息
kubectl exec -it deploymentdemo-5bf95989f5-9nbrh -- nginx -v
yml文件方式
# 升级nginx镜像版本为1.19.2-alpine
kubectl edit deploy deploymentdemo
# 查看pod内部nginx版本信息
kubectl exec -it deploymentdemo-7d57498fd8-8rn64 -- nginx -v
扩容
# 命令行方式
kubectl scale deployment deploymentdemo --replicas=5
# yaml方式
kubectl edit deploy deploymentdemo
滚动更新
微服务部署:蓝绿部署、滚动部署、灰度发布、金丝雀发布
-
蓝绿部署:不停老版本,部署新版本然后进行测试,确认OK,将流量切到新版本,然后老版本同时也升级到新版本。 蓝绿部署无需停机,并且风险较小
-
滚动发布:一般是取出一个或者多个服务器停止服务,执行更新,并重新将其投入使用。周而复始,直到集群中所有的实例都更新成新版本。 这种部署方式相对于蓝绿部署,更加节约资源——它不需要运行两个集群、两倍的实例数。我们可以部分部署,例如每次只取出集群的20%进行升级。
-
灰度发布:指在黑与白之间,能够平滑过渡的一种发布方式。AB test就是一种灰度发布方式,让一部分用户继续用A,一部分用户开始用B,如果用户对B没有什么反对意见,那么逐步扩大范围,把所有用户都迁移到B上面来。灰度发布可以保证整体系统的稳定,在初始灰度的时候就可以发现、调整问题,以保证其影响度,而我们平常所说的金丝雀部署也就是灰度发布的一种方式。
-
金丝雀发布:Deployment控制器支持自定义控制更新过程中的滚动节奏,如“暂停(pause)”或“继续(resume)”更新操作。比如等待第一批新的Pod资源创建完成后立即暂停更新过程,此时,仅存在一部分新版本的应用,主体部分还是旧的版本。然后,再筛选一小部分的用户请求路由到新版本的Pod应用,继续观察能否稳定地按期望的方式运行。确定没问题之后再继续完成余下的Pod资源滚动更新,否则立即回滚更新操作。这就是所谓的金丝雀发布(Canary Release)
# 更新deployment的nginx:1.18.0-alpine版本,并配置暂停deployment
kubectl set image deployment deploymentdemo deploymentdemo=nginx:1.18.0-alpine && kubectl rollout pause deployment deploymentdemo
# 观察更新状态
kubectl rollout status deployments deploymentdemo
# 监控更新的过程,可以看到已经新增了一个资源,但是并未按照预期的状态去删除一个旧的资源,就是因为使用了pause暂停命令
kubectl get pods -l app=deploymentdemo -w
# 确保更新的pod没问题了,继续更新
kubectl rollout resume deploy deploymentdemo
# 查看最后的更新情况
kubectl get pods -l app=deploymentdemo
版本回退
默认情况下,kubernetes 会在系统中保存前两次的 Deployment 的 rollout 历史记录,以便可以随时回退(您可以修改 revision history limit
来更改保存的revision数)。
注意: 只要 Deployment 的 rollout 被触发就会创建一个 revision。也就是说当且仅当
Deployment 的 Pod template(如 .spec.template
)被更改,例如更新template 中的 label 和容器镜像时,就会创建出一个新的 revision。
其他的更新,比如扩容 Deployment 不会创建 revision——因此我们可以很方便的手动或者自动扩容。
这意味着当您回退到历史 revision 时,只有 Deployment 中的 Pod template 部分才会回退
rollout 常见命令
子命令 | 功能说明 |
---|---|
history | 查看rollout操作历史 |
pause | 将提供的资源设定为暂停状态 |
restart | 重启某资源 |
resume | 将某资源从暂停状态恢复正常 |
status | 查看rollout操作状态 |
undo | 回滚前一rollout |
# 查看rollout操作历史
kubectl rollout history deployment deploymentdemo
# 查看rollout操作状态
kubectl rollout status deployment deploymentdemo
# 回滚版本信息
kubectl rollout undo deployment deploymentdemo
# 查看pod回滚情况
kubectl get pods -w
# 进去某一个pod内部,查看nginx回滚版本信息
kubectl exec -it deploymentdemo1-df6bc5d4c-flc7b -- nginx -v
更新策略
Deployment 可以保证在升级时只有一定数量的 Pod 是 down 的。默认的,它会确保至少有比期望的Pod数量少一个是up状态(最多一个不可用)
Deployment 同时也可以确保只创建出超过期望数量的一定数量的 Pod。默认的,它会确保最多比期望的Pod数量多一个的 Pod 是 up 的(最多1个 surge )
Kuberentes 版本v1.17.5中,从1-1变成25%-25%
kubectl describe deployments.apps deploymentdemo
# 查看到信息
RollingUpdateStrategy: 25% max unavailable, 25% max surge
总结
Deployment为Pod和Replica Set(下一代Replication Controller)提供声明式更新。
只需要在 Deployment 中描述想要的目标状态是什么,Deployment controller 就会帮您将 Pod 和 ReplicaSet 的实际状态改变到您的目标状态。也可以定义一个全新的 Deployment 来创建 ReplicaSet 或者删除已有的 Deployment 并创建一个新的来替换。
Replicas(副本数量):
.spec.replicas
是可以选字段,指定期望的pod数量,默认是 1
Selector(选择器):
.spec.selector
是可选字段,用来指定 label selector ,圈定Deployment管理的pod范围。如果被指 定, .spec.selector
必须匹配 .spec.template.metadata.labels
,否则它将被API拒绝。
如果 .spec.selector
没有被指定, .spec.selector.matchLabels
默认是 .spec.template.metadata.labels
在Pod的template跟 .spec.template
不同或者数量超过了 .spec.replicas
规定的数量的情况下, Deployment会杀掉label跟selector不同的Pod
Pod Template(Pod模板):
.spec.template
是 .spec 中唯一要求的字段。
.spec.template
是 pod template. 它跟 Pod有一模一样的schema,除了它是嵌套的并且不需要 apiVersion 和 kind 字段。
另外为了划分Pod的范围,Deployment中的pod template必须指定适当的label(不要跟其他 controller重复了,参考selector)和适当的重启策略。
.spec.template.spec.restartPolicy
可以设置为 Always
, 如果不指定的话这就是默认配置。
strategy(更新策略):
.spec.strategy
指定新的Pod替换旧的Pod的策略。 .spec.strategy.type
可以是 Recreate
或者是 RollingUpdate
。RollingUpdate
是默认值。
-
Recreate
: 重建式更新,就是删一个建一个。类似于ReplicaSet的更新方式,即首先删除现有的Pod对象,然后由控制器基于新模板重新创建新版本资源对象。 -
RollingUpdate
:滚动更新,简单定义更新期间pod最多有几个等。可以指定maxUnavailable
和maxSurge
来控制 rolling update 进程。
RollingUpdateStrategy:
maxSurge: .spec.strategy.rollingUpdate.maxSurge
是可选配置项,用来指定可以超过期望的Pod数量的最大个数。该值可以是一个绝对值(例如5)或者是期望的Pod数量的百分比(例如10%)。当 MaxUnavailable 为0时该值不可以为0。通过百分比计算的绝对值向上取整。默认值是1。
例如,该值设置成30%,启动rolling update后新的ReplicatSet将会立即扩容,新老Pod的总数不能超过期望的Pod数量的130%。旧的Pod被杀掉后,新的ReplicaSet将继续扩容,旧的ReplicaSet会进一步缩容,确保在升级的所有时刻所有的Pod数量和不会超过期望Pod数量的130%。
maxUnavailable: .spec.strategy.rollingUpdate.maxUnavailable
是可选配置项,用来指定在升级过程中不可用Pod的最大数量。该值可以是一个绝对值(例如5),也可以是期望Pod数量的百分比(例如10%)。通过计算百分比的绝对值向下取整。 如果 .spec.strategy.rollingUpdate.maxSurge
为0时,这个值不可以为0。默认值是1。
例如,该值设置成30%,启动rolling update后旧的ReplicatSet将会立即缩容到期望的Pod数量的70%。新的Pod ready后,随着新的ReplicaSet的扩容,旧的ReplicaSet会进一步缩容确保在升级的所有时刻可以用的Pod数量至少是期望Pod数量的70%。
rollbackTo:
.spec.rollbackTo
是一个可以选配置项,用来配置Deployment回退的配置。设置该参数将触发回退操作,每次回退完成后,该值就会被清除。
revision:
.spec.rollbackTo.revision
是一个可选配置项,用来指定回退到的revision。默认
是0,意味着回退到上一个revision
progressDeadlineSeconds:
.spec.progressDeadlineSeconds
是可选配置项,用来指定在系统报告Deployment的failed progressing——表现为resource的状态中 type=Progressing 、 Status=False 、Reason=ProgressDeadlineExceeded 前可以等待的Deployment进行的秒数。
Deployment controller会继续重试该Deployment。未来,在实现了自动回滚后, deployment controller在观察到这种状态时就会自动回滚。
如果设置该参数,该值必须大于 .spec.minReadySeconds
paused:
.spec.paused
是可以可选配置项,boolean值。用来指定暂停和恢复Deployment。
Paused和没有paused的Deployment之间的唯一区别就是,所有对paused deployment中的PodTemplateSpec的修改都不会触发新的rollout。Deployment被创建之后默认是非paused
DaemonSet
DaemonSet 确保全部 Node 上运行一个 Pod 的副本。当有 Node 加入集群时,也会为他们新增一个 Pod 。当有 Node 从集群移除时,这些 Pod 也会被回收。删除 DaemonSet 将会删除它创建的所有 Pod
在每一个node节点上只调度一个Pod,因此无需指定replicas的个数,比如:
-
在每个node上都运行一个日志采集程序,负责收集node节点本身和node节点之上的各个Pod所产生的日志
-
在每个node上都运行一个性能监控程序,采集该node的运行性能数据
DaemonSet 模板说明
通过kubectl命令行方式获取更加详细信息
kubectl explain daemonset
kubectl explain daemonset.spec
kubectl explain daemonset.spec.template.spec
部署 DaemonSet
controller/daemonsetdemo.yml
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: daemonsetdemo
labels:
app: daemonsetdemo
spec:
template:
metadata:
name: daemonsetdemo
labels:
app: daemonsetdemo
spec:
containers:
- name: daemonsetdemo
image: nginx:1.17.10-alpine
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
restartPolicy: Always
selector:
matchLabels:
app: daemonsetdemo
# 运行demonset
kubectl apply -f demonsetdemo.yml
# 查看demonset
kubectl get ds
# 查看pod详细信息:只有工作节点创建pod,master节点并不会创建。
kubectl get pod -o wide
滚动更新
DaemonSet有两种更新策略类型:
-
OnDelete:这是向后兼容性的默认更新策略。使用 OnDelete 更新策略,在更新DaemonSet模板后,只有在手动删除旧的DaemonSet pod时才会创建新的DaemonSet pod。这与Kubernetes 1.5或更早版本中DaemonSet的行为相同。
-
RollingUpdate:使用 RollingUpdate 更新策略,在更新DaemonSet模板后,旧的DaemonSet pod将被终止,并且将以受控方式自动创建新的DaemonSet pod。
Job
一次性执行任务,类似Linux中的job
应用场景:如离线数据处理,视频解码等业务
部署 Job
controller/jobdemo.yml
apiVersion: batch/v1
kind: Job
metadata:
name: jobdemo
labels:
app: jobdemo
spec:
template:
metadata:
name: jobdemo
labels:
app: jobdemo
spec:
containers:
- name: jobdemo
image: perl:slim
imagePullPolicy: IfNotPresent
command: [ "perl", "-Mbignum=bpi", "-wle", "print bpi(6000)" ]
restartPolicy: Never
backoffffLimit 说明
.spec.backoffLimit
用于设置Job的容错次数,默认值为6。当Job运行的Pod失败次数到达 .spec.backoffLimit
次时,Job Controller不再新建Pod,直接停止运行这个Job,将其运行结果标记为Failure。另外,Pod运行失败后再次运行的时间间隔呈递增状态,例如10s,20s,40s。。。
运行 Job
# 运行job
kubectl apply -f jobdemo.yml
# 查看pod日志
kubectl logs -f pi-7nrtv
# 删除job
kubectl delete -f jobdemo.yml
StatefulSet
在kubernetes系统中,Pod的管理对象RC,Deployment,DaemonSet和Job都面向无状态的服务,但现实中有很多服务时有状态的,比如一些集群服务,例如mysql集群,集群一般都会有这四个特点:
-
每个节点都是有固定的身份ID,集群中的成员可以相互发现并通信
-
集群的规模是比较固定的,集群规模不能随意变动
-
集群中的每个节点都是有状态的,通常会持久化数据到永久存储中
-
如果磁盘损坏,则集群里的某个节点无法正常运行,集群功能受损
如果你通过RC或Deployment控制Pod副本数量来实现上述有状态的集群,就会发现第一点是无法满足的,因为Pod名称和ip是随机产生的,并且各Pod中的共享存储中的数据不能都动,因此StatefulSet在这种情况下就派上用场了
StatefulSet具有以下特性:
-
StatefulSet里的每个Pod都有稳定,唯一的网络标识,可以用来发现集群内的其它成员,假设,StatefulSet的名称为lagou,那么第1个Pod叫lagou-0,第2个叫lagou-1,以此类推
-
StatefulSet控制的Pod副本的启停顺序是受控的,操作第N个Pod时,前N-1个Pod已经是运行且准备状态
-
StatefulSet里的Pod采用稳定的持久化存储卷,通过PV或PVC来实现,删除Pod时默认不会删除与StatefulSet相关的存储卷(为了保证数据的安全)
StatefulSet除了要与PV卷捆绑使用以存储Pod的状态数据,还要与Headless,Service配合使用,每个StatefulSet定义中都要声明它属于哪个Handless Service,Handless Service与普通Service的关键区别在于,它没有Cluster IP
标签:kubectl,控制器,ReplicaSet,spec,20221219,Deployment,Pod,pod,资源 From: https://www.cnblogs.com/huangwenjie/p/16998701.html