首页 > 其他分享 >pod调度器

pod调度器

时间:2023-03-03 16:24:17浏览次数:32  
标签:控制器 创建 调度 spec nginx Pod pod

Pod 是 Kubernetes 集群中能够被创建和管理的最小部署单元。所以需要有工具去操作和管理它们的生命周期,这里就需要用到控制器了。

Pod 控制器由 master 的 kube-controller-manager 组件提供,常见的此类控制器有 Replication Controller、ReplicaSet、Deployment、DaemonSet、StatefulSet、Job 和 CronJob 等,它们分别以不同的方式管理 Pod 资源对象。

1.1 pod控制器的作用

Pod控制器,又称之为工作负载(workload),是用于实现管理pod的中间层,确保pod资源符合预期的状态,pod的资源出现故障时,会尝试进行重启,当根据重启策略无效,则会重新新建pod的资源。

按照pod的创建安方式可以将其分为两类:

自主式pod:kubernetes直接创建出来的pod,这种pod删除后就没有了,也不会重建

控制器创建的pod:通过控制器创建的pod,这种pod删除了之后还会自动重建

控制器和pod的关系:

controllers:在集群上管理和运行容器的 pod 对象, pod 通过 label-selector 相关联。

Pod 通过控制器实现应用的运维,如伸缩,升级等。

 

 

 

1.2 pod控制器的多种类型

(1)ReplicaSet: 代用户创建指定数量的pod副本,确保pod副本数量符合预期状态,并且支持滚动式自动扩容和缩容功能。

ReplicaSet主要三个组件组成:

   1)用户期望的pod副本数量

   2)标签选择器,判断哪个pod归自己管理

   3)当现存的pod数量不足,会根据pod资源模板进行新建

帮助用户管理无状态的pod资源,精确反应用户定义的目标数量,但是RelicaSet不是直接使用的控制器,而是使用Deployment。

(2)Deployment:工作在ReplicaSet之上,用于管理无状态应用,目前来说最好的控制器。支持滚动更新和回滚功能,还提供声明式配置。

ReplicaSet 与Deployment 这两个资源对象逐步替换之前RC的作用。

(3)DaemonSet:用于确保集群中的每一个节点只运行特定的pod副本,通常用于实现系统级后台任务。比如ELK服务

特性:服务是无状态的

服务必须是守护进程

(4)StatefulSet:管理有状态应用

(5)Job:只要完成就立即退出,不需要重启或重建

(6)Cronjob:周期性任务控制,不需要持续后台运行

 1.3 pod容器中的有状态和无状态的对比

(1)有状态实例

实例之间有差别,每个实例都有自己的独特性,元数据不同,例如etcd,zookeeper

实例之间不对等的关系,以及依靠外部存储的应用

(2)无状态实例

deployment认为所有的pod都是一样的

不用考虑顺序的要求

不用考虑在哪个node节点上运行

可以随意扩容和缩容

 

二 .Deployment控制器

 2.1 SatefulSet 控制器的运用

StatefulSet 是用来管理有状态应用的工作负载 API 对象。

StatefulSet 用来管理某 Pod 集合的部署和扩缩, 并为这些 Pod 提供持久存储和持久标识符。

和 Deployment 类似, StatefulSet 管理基于相同容器规约的一组 Pod。但和 Deployment 不同的是, StatefulSet 为它们的每个 Pod 维护了一个有粘性的 ID。这些 Pod 是基于相同的规约来创建的, 但是不能相互替换:无论怎么调度,每个 Pod 都有一个永久不变的 ID。

如果希望使用存储卷为工作负载提供持久存储,可以使用 StatefulSet 作为解决方案的一部分。 尽管 StatefulSet 中的单个 Pod 仍可能出现故障, 但持久的 Pod 标识符使得将现有卷与替换已失败 Pod 的新 Pod 相匹配变得更加容易。

 

StatefulSet 对于需要满足以下一个或多个需求的应用程序很有价值:

稳定的、唯一的网络标识符。

稳定的、持久的存储。

有序的、优雅的部署和扩缩。

有序的、自动的滚动更新。

在上面描述中,“稳定的”意味着 Pod 调度或重调度的整个过程是有持久性的。 如果应用程序不需要任何稳定的标识符或有序的部署、删除或扩缩, 则应该使用由一组无状态的副本控制器提供的工作负载来部署应用程序,比如 Deployment 或者  ReplicaSet可能更适用于你的无状态应用部署需要。

 2.1 SatefulSet 控制器的案例演示

名为 nginx-svc 的 Headless Service 用来控制网络域名。

名为 nginx-sts 的 StatefulSet 有一个 Spec,它表明将在独立的 3 个 Pod 副本中启动 nginx 容器。

volumeClaimTemplates 将通过 PersistentVolume 制备程序所准备的  PersistentVolumes来提供稳定的存储

案例的创建演示

 

apiVersion: v1
kind: Service
metadata:
  name: nginx-svc
spec:
  ports:
  - port: 80
    targetPort: 80
  clusterIP: None
  selector:
    app: nginx-sts
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: nginx-sts
spec:
  replicas: 3
  serviceName: "nginx-sts"
  selector:
    matchLabels:
      app: nginx-sts
  template:
    metadata:
      labels:
        app: nginx-sts
    spec:
      containers:
      - image: nginx:1.14
        imagePullPolicy: IfNotPresent
        name: nginx-test
        ports:
        - containerPort: 80
          protocol: TCP
        volumeMounts:
        - name: www
          mountPath: /usr/share/nginx/html
  volumeClaimTemplates:
  - metadata:
      name: www
    spec:
      accessModes: [ "ReadWriteOnce" ]
      storageClassName: "nfs-client-storageclass"
      resources:
        requests:
          storage: 2Gi

 

 

 

 

 

 

 

 扩容和缩容

kubectl edit sts

 

 

 

 

 

 

 

 

(1) 为什么要有headless?
在deployment中,每一个pod是没有名称,是随机字符串,是无序的。而statefulset中是要求有序的,每一个pod的名称必须是固定的。当节点挂了,重建之后的标识符是不变的,每一个节点的节点名称是不能改变的。pod名称是作为pod识别的唯一标识符,必须保证其标识符的稳定并且唯一。
为了实现标识符的稳定,这时候就需要一个headless service 解析直达到pod,还需要给pod配置一个唯一的名称。
(2)为什么要有volumeClaimTemplate?
大部分有状态副本集都会用到持久存储,比如分布式系统来说,由于数据是不一样的,每个节点都需要自己专用的存储节点。而在 deployment中pod模板中创建的存储卷是一个共享的存储卷,多个pod使用同一个存储卷,而statefulset定义中的每一个pod都不能使用同一个存储卷,由此基于pod模板创建pod是不适应的,这就需要引入volumeClaimTemplate,当在使用statefulset创建pod时,会自动生成一个PVC,从而请求绑定一个PV,从而有自己专用的存储卷。
服务发现:就是应用服务之间相互定位的过程。
应用场景:
动态性强:Pod会飘到别的node节点
更新发布频繁:互联网思维小步快跑,先实现再优化,老板永远是先上线再慢慢优化,先把idea变成产品挣到钱然后再慢慢一点一点优化
支持自动伸缩:一来大促,肯定是要扩容多个副本
K8S里服务发现的方式---DNS,使K8S集群能够自动关联Service资源的“名称”和“CLUSTER-IP”,从而达到服务被集群自动发现的目的。
实现K8S里DNS功能的插件:
skyDNS:Kubernetes 1.3之前的版本
kubeDNS:Kubernetes 1.3至Kubernetes 1.11
CoreDNS:Kubernetes 1.11开始至今 
(3)对StatefulSet控制的总结
1、部署有状态应用的   
2、每个Pod的名称是唯一且固定不变的,而且每个Pod应该拥有自己专属的持久化存储(基于PVC模板volumeClaimTemplates绑定PV)
3、需要关联 Headless Service(ClusterIP为None),在K8S集群内部可通过 <pod_name>.<svc.name>.<namespace_name>.svc.cluster.local 的格式解析出 PodIP (基于无头服务和CoreDNS实现)
4、创建、删除、升级、扩缩容Pod都是有序进行的(默认为串行执行的):
    创建、升级,扩容是升序执行的(顺序为Pod标识序号0..n-1),删除是逆序执行的(顺序为 n-1..0)
  缩容和回滚都是逆序执行的(顺序为 n-1..0),会先删除旧Pod,再创建新Pod 

三 DaemonSet控制器

 

DaemonSet 确保全部(或者一些)Node 上运行一个 Pod 的副本。当有 Node 加入集群时,也会为他们新增一个 Pod 。当有 Node 从集群移除时,这些 Pod 也会被回收。删除 DaemonSet 将会删除它创建的所有 Pod。

 

使用 DaemonSet 的一些典型用法:

 

运行集群存储 daemon,例如在每个 Node 上运行 glusterd、ceph。

 

在每个 Node 上运行日志收集 daemon,例如fluentd、logstash。

 

在每个 Node 上运行监控 daemon,例如 Prometheus Node Exporter、collectd、Datadog 代理、New Relic 代理,或 Ganglia gmond。

 

应用场景:Agent

 

官方案例(监控):

 

https://kubernetes.io/docs/concepts/workloads/controllers/daemonset/

 

DaemonSet控制器的案例演示:

 

vim ds.yaml 
apiVersion: apps/v1
kind: DaemonSet 
metadata:
  name: nginx-daemonSet
  labels:
    app: nginx
spec:
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:1.14
        ports:
        - containerPort: 80
 
 
kubectl apply -f ds.yaml

 

守护进程控制器会在每一个node节点上创建一个相同的pod

DaemonSet

1、理论上可以在K8S集群的所有Node节点上创建同类型的Pod资源(无论Node节点什么加入到K8S集群)

2、会受到Node节点上的污点或者cordon不可调度设置的影响。可以在Pod配置中设置容忍忽略污点,设置uncordon解除不可调度

3、不需要设置副本数replicas

 

四 Job控制器

 

job控制器的运用

 

Job分为普通任务(Job)和定时任务(CronJob)

 

常用于运行那些仅需要执行一次的任务

 

应用场景:数据库迁移、批处理脚本、kube-bench扫描、离线数据处理,视频解码等业务

 

https://kubernetes.io/docs/concepts/workloads/controllers/jobs-run-to-completion/    

 

 job控制器的案例演示 :

 

 

 

vim job.yaml
apiVersion: batch/v1
kind: Job
metadata:
  name: pi
spec:
  template:
    spec:
      containers:
      - name: pi
        image: perl
        command: ["perl",  "-Mbignum=bpi", "-wle", "print bpi(2000)"]
      restartPolicy: Never
  backoffLimit: 4

参数解释:

.spec.template.spec.restartPolicy该属性拥有三个候选值:OnFailure,Never和Always。默认值为Always。它主要用于描述Pod内容器的重启策略。在Job中只能将此属性设置为OnFailure或Never,否则Job将不间断运行。

.spec.backoffLimit用于设置job失败后进行重试的次数,默认值为6。默认情况下,除非Pod失败或容器异常退出,Job任务将不间断的重试,此时Job遵循 .spec.backoffLimit上述说明。一旦.spec.backoffLimit达到,作业将被标记为失败。

 

五 cronjob

周期性任务,像Linux的Crontab一样。

周期性任务

应用场景:通知,备份

https://kubernetes.io/docs/tasks/job/automated-tasks-with-cron-jobs/

示例:
//每分钟打印hello
vim cronjob.yaml
apiVersion: batch/v1beta1
kind: CronJob
metadata:
  name: hello
spec:
  schedule: "*/1 * * * *"
  jobTemplate:
    spec:
      template:
        spec:
          containers:
          - name: hello
            image: busybox
            imagePullPolicy: IfNotPresent
            args:
            - /bin/sh
            - -c
            - date; echo Hello from the Kubernetes cluster
          restartPolicy: OnFailure
          
//cronjob其它可用参数的配置
spec:
  concurrencyPolicy: Allow            #声明了 CronJob 创建的任务执行时发生重叠如何处理(并发性规则仅适用于相同 CronJob 创建的任务)。spec仅能声明下列规则中的一种:
                                         ●Allow (默认):CronJob 允许并发任务执行。
                                         ●Forbid:CronJob 不允许并发任务执行;如果新任务的执行时间到了而老任务没有执行完,CronJob 会忽略新任务的执行。
                                         ●Replace:如果新任务的执行时间到了而老任务没有执行完,CronJob 会用新任务替换当前正在运行的任务。
  startingDeadlineSeconds: 15        #它表示任务如果由于某种原因错过了调度时间,开始该任务的截止时间的秒数。过了截止时间,CronJob 就不会开始任务,且标记失败.如果此字段未设置,那任务就没有最后期限。
  successfulJobsHistoryLimit: 3        #要保留的成功完成的任务数(默认为3)
  failedJobsHistoryLimit:1         #要保留多少已完成和失败的任务数(默认为1)
  suspend:true                     #如果设置为 true ,后续发生的执行都会被挂起。 这个设置对已经开始的执行不起作用。默认是 false。
  schedule: '*/1 * * * *'            #必需字段,作业时间表。在此示例中,作业将每分钟运行一次
  jobTemplate:                        #必需字段,作业模板。这类似于工作示例
 
 
kubectl create -f cronjob.yaml 
 
kubectl get cronjob
NAME    SCHEDULE      SUSPEND   ACTIVE   LAST SCHEDULE   AGE
hello   */1 * * * *   False     0        <none>          25s
 
kubectl get pods
NAME                     READY   STATUS      RESTARTS   AGE
hello-1621587180-mffj6   0/1     Completed   0          3m
hello-1621587240-g68w4   0/1     Completed   0          2m
hello-1621587300-vmkqg   0/1     Completed   0          60s
 
kubectl logs hello-1621587180-mffj6
Fri May 21 09:03:14 UTC 2021
Hello from the Kubernetes cluster
//如果报错:Error from server (Forbidden): Forbidden (user=system:anonymous, verb=get, resource=nodes, subresource=proxy) ( pods/log hello-1621587780-c7v54)
//解决办法:绑定一个cluster-admin的权限
kubectl create clusterrolebinding system:anonymous --clusterrole=cluster-admin --user=system:anonymous

 

conclusion

Pod 控制器有几种?
1、Deployment+ReplicaSet  部署无状态应用的Pod
2、StatefulSet    部署有状态应用的Pod
3、DaemonSet      在K8S集群的所有Node节点上部署相同的Pod
4、Job            部署一次性的任务Pod,完成后就会退出并不会重启
5、CronJob        部署周期性的任务Pod,完成后就会退出并不会重启
 
 
Deployment
1、部署无状态应用的
2、创建和管理 ReplicaSet(RS)和Pod资源,维护Pod副本数量与期望值相同
3、创建和删除Pod时是并行执行的,升级时是先创建一部分新Pod,再删除一部分旧Pod
 
 
StatefulSet
1、部署有状态应用的   
2、每个Pod的名称是唯一且固定不变的,而且每个Pod应该拥有自己专属的持久化存储(基于PVC模板volumeClaimTemplates绑定PV)
3、需要关联 Headless Service(ClusterIP为None),在K8S集群内部可通过 <pod_name>.<svc.name>.<namespace_name>.svc.cluster.local 的格式解析出 PodIP (基于无头服务和CoreDNS实现)
4、创建、删除、升级、扩缩容Pod都是有序进行的(默认为串行执行的):
    创建、升级是升序执行的(顺序为Pod标识序号0..n-1),删除是逆序执行的(顺序为 n-1..0)
    扩缩容都是逆序执行的(顺序为 n-1..0),会先删除旧Pod,再创建新Pod
 
spec.podManagementPolicy: Parallel  #可设置StatefulSet创建和删除Pod时为并行执行
 
 
service类型种类  4+1
ClusterIP
NodePort
LoadBalancer
ExtenalName
 
Headless Service
 
常规service与Headless Service的区别
常规service:一组Pod的访问策略,提供ClusterIP在K8S集群内部访问,还提供负载均衡和服务发现功能
Headless Service:无头服务,可以不需要ClusterIP,与StatefulSet资源关联配合CoreDNS实现通过 Pod名称 解析出 PodIP
 
 
DaemonSet
1、理论上可以在K8S集群的所有Node节点上创建同类型的Pod资源(无论Node节点什么加入到K8S集群)
2、会受到Node节点上的污点或者cordon不可调度设置的影响。可以在Pod配置中设置容忍忽略污点,设置uncordon解除不可调度
3、不需要设置副本数replicas
 
 
Job
1、部署一次性任务的资源
2、任务正常完成后Pod容器会立即退出并不会再重启(Job类型Pod容器的retartPolicy通常设置为Never),也不会重建Pod
3、如果任务异常完成Pod容器异常退出,会重建Pod重试任务,重试次数根据 backoffLimit 配置(默认6次)
 
 
CronJob
1、部署周期性任务的资源,一次任务至少创建一个Pod
2、任务正常完成后Pod容器会立即退出并不会再重启(Job类型Pod容器的retartPolicy不设置为Always),也不会重建Pod
3、使用 spec.schedule 字段设置时间周期表,格式为 '分 时 日 月 周'

标签:控制器,创建,调度,spec,nginx,Pod,pod
From: https://www.cnblogs.com/123456789SI/p/17176082.html

相关文章

  • Pod资源需求和资源限制
    [root@masterresource]#kubectlapply-fresource-requests-demo.yaml[root@masterresource]#catresource-requests-demo.yamlapiVersion:v1kind:Podmetadat......
  • k8s集群调度
    1.集群调度简介#Scheduler是kubernetes中的调度器组件,主要的任务是把定义的pod分配到集群的节点上。听起来非常简单,但有很多要考虑的问题:公平:如何保证每个节点都能......
  • 转!!Pod中容器的健康检查
    转自--https://blog.csdn.net/u010674953/article/details/129261632 健康检查上篇文章中我们了解了Pod中容器的生命周期的两个钩子函数,PostStart与PreStop,其中PostSta......
  • 调度器46—tick模式
    一、tick简介tick就是一个周期性的中断,周期通过CONFIG_HZ进行配置,一般常取值为100Hz、250Hz、1000Hz。Tick每秒窃取CPU100到1000次,导致Icache、dcache定期被丢弃......
  • k8s——pod控制器
    前言Pod是Kubernetes集群中能够被创建和管理的最小部署单元。所以需要有工具去操作和管理它们的生命周期,这里就需要用到控制器了。Pod控制器由master的kube-cont......
  • K8S中的pod控制器
    一、Pod控制器及其作用Pod控制器,又称之为工作负载(workload),是用于实现管理pod的中间层,确保pod资源符合预期的状态,pod的资源出现故障时,会尝试进行重启,当根据重启策略无效,则......
  • 不背锅运维:k8s调度之初探nodeSelector和nodeAffinity
    写在开篇在k8s的调度中,有强制性的nodeSelector,节点亲和性nodeAffinity、Pod亲和性podAffinity、pod反亲和性podAntiAffinity。本篇先对nodeSelector和nodeAffinity做个初......
  • Pod 进阶
    一、资源限制当定义Pod时可以选择性地为每个容器设定所需要的资源数量。最常见的可设定资源是CPU和内存大小,以及其他类型的资源。当为Pod中的容器指定了request......
  • k8s通过sidecar模式收集pod的容器日志至ELK
    架构:已完成的部署1、ES集群及kibana部署​​https://blog.51cto.com/yht1990/6080981​​2、kafaka+zookeeper集群​​https://blog.51cto.com/yht1990/6081518​​准备side......
  • pod install&ndash;verbose 出错 仓库拉不下来 https://github.com/CocoaPods/Specs.g
    发布过unity+admobiOS包的开发者应该都有体会,构建版本时unity会很长时间卡在podinstall这个过程中,特别是在第一次执行构建xcode项目时,可能整个过程耗时要一个下午!在这个......