首页 > 其他分享 >k8s 对外服务-Ingress

k8s 对外服务-Ingress

时间:2024-06-05 16:30:21浏览次数:32  
标签:Ingress service yaml app ingress nginx controller k8s 对外

一、Ingress 简介:

service的作用体现在两个方面,对集群内部,它不断跟踪pod的变化更新endpoint中对应pod的对象,提供了ip不断变化的pod的服务发现机制;对集群外部他类似负载均衡器,可以在集群内外部对pod进行访问。

在Kubernetes中,Pod的IP地址和service的ClusterIP仅可以在集群网络内部使用,对于集群外的应用是不可见的。为了使外部的应用能够访问集群内的服务,Kubernetes目前提供了以下几种方案: ●NodePort:将service暴露在节点网络上,NodePort背后就是Kube-Proxy,Kube-Proxy是沟通service网络、Pod网络和节点网络的桥梁。 测试环境使用还行,当有几十上百的服务在集群中运行时,NodePort的端口管理就是个灾难。因为每个端口只能是一种服务,端口范围只能是 30000-32767。

●LoadBalancer:通过设置LoadBalancer映射到云服务商提供的LoadBalancer地址。这种用法仅用于在公有云服务提供商的云平台上设置 Service 的场景。受限于云平台,且通常在云平台部署LoadBalancer还需要额外的费用。 在service提交后,Kubernetes就会调用CloudProvider在公有云上为你创建一个负载均衡服务,并且把被代理的Pod的IP地址配置给负载均衡服务做后端。

●externalIPs:service允许为其分配外部IP,如果外部IP路由到集群中一个或多个Node上,Service会被暴露给这些externalIPs。通过外部IP进入到集群的流量,将会被路由到Service的Endpoint上。

●Ingress:只需一个或者少量的公网IP和LB,即可同时将多个HTTP服务暴露到外网,七层反向代理。 可以简单理解为service的service,它其实就是一组基于域名和URL路径,把用户的请求转发到一个或多个service的规则。

二、Ingress 组成:

1.ingress:

nginx配置文件; ingress是一个API对象,通过yaml文件来配置,ingress对象的作用是定义请求如何转发到service的规则,可以理解为配置模板。 ingress通过http或https暴露集群内部service,给service提供外部URL、负载均衡、SSL/TLS以及基于域名的反向代理。ingress要依靠 ingress-controller 来具体实现以上功能。

2.ingress-controller:

当做反向代理或者说是转发器 ;ingress-controller是具体实现反向代理及负载均衡的程序,对ingress定义的规则进行解析,根据配置的规则来实现请求转发。 ingress-controller并不是k8s自带的组件,实际上ingress-controller只是一个统称,用户可以选择不同的ingress-controller实现,目前,由k8s维护的ingress-controller只有google云的GCE与ingress-nginx两个,其他还有很多第三方维护的ingress-controller,具体可以参考官方文档。但是不管哪一种ingress-controller,实现的机制都大同小异,只是在具体配置上有差异。 一般来说,ingress-controller的形式都是一个pod,里面跑着daemon程序和反向代理程序。daemon负责不断监控集群的变化,根据 ingress对象生成配置并应用新配置到反向代理,比如ingress-nginx就是动态生成nginx配置,动态更新upstream,并在需要的时候reload程序应用新配置。为了方便,后面的例子都以k8s官方维护的ingress-nginx为例。

Ingress-Nginx github 地址:GitHub - kubernetes/ingress-nginx: Ingress-NGINX Controller for Kubernetes

Ingress-Nginx 官方网站:Welcome - Ingress-Nginx Controller

总结:

ingress-controller才是负责具体转发的组件,通过各种方式将它暴露在集群入口,外部对集群的请求流量会先到 ingress-controller, 而ingress对象是用来告诉ingress-controller该如何转发请求,比如哪些域名、哪些URL要转发到哪些service等等。 

三、Ingress 工作原理:

1.ingress-controller通过和 kubernetes APIServer 交互,动态的去感知集群中ingress规则变化,

2.然后读取它,按照自定义的规则,规则就是写明了哪个域名对应哪个service,生成一段nginx配置,

3.再写到nginx-ingress-controller的pod里,这个ingress-controller的pod里运行着一个Nginx服务,控制器会把生成的 nginx配置写入 /etc/nginx.conf文件中,

4.然后reload一下使配置生效。以此达到域名区分配置和动态更新的作用。

四、 部署 nginx-ingress-controller:

//部署ingress-controller pod及相关资源
mkdir /opt/ingress
cd /opt/ingress

官方下载地址:
wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/nginx-0.25.0/deploy/static/mandatory.yaml

上面可能无法下载,可用国内的 gitee
wget https://gitee.com/mirrors/ingress-nginx/raw/nginx-0.25.0/deploy/static/mandatory.yaml
wget https://gitee.com/mirrors/ingress-nginx/raw/nginx-0.30.0/deploy/static/mandatory.yaml

 

//修改 ClusterRole 资源配置
vim mandatory.yaml
......
apiVersion: rbac.authorization.k8s.io/v1beta1
#RBAC相关资源从1.17版本开始改用rbac.authorization.k8s.io/v1,rbac.authorization.k8s.io/v1beta1在1.22版本即将弃用
kind: ClusterRole
metadata:
  name: nginx-ingress-clusterrole
  labels:
    app.kubernetes.io/name: ingress-nginx
    app.kubernetes.io/part-of: ingress-nginx
rules:

  - apiGroups:
    - ""
      resources:
      - configmaps
      - endpoints
      - nodes
      - pods
      - secrets
        verbs:
      - list
      - watch
  - apiGroups:
    - ""
      resources:
      - nodes
        verbs:
      - get
  - apiGroups:
    - ""
      resources:
      - services
        verbs:
      - get
      - list
      - watch
  - apiGroups:
    - "extensions"
    - "networking.k8s.io"    # (0.25版本)增加 networking.k8s.io Ingress 资源的 api 
      resources:
      - ingresses
        verbs:
      - get
      - list
      - watch
  - apiGroups:
    - ""
      resources:
      - events
        verbs:
      - create
      - patch
  - apiGroups:
    - "extensions"
    - "networking.k8s.io"   # (0.25版本)增加 networking.k8s.io/v1 Ingress 资源的 api 
      resources:
      - ingresses/status
        verbs:
      - update

四、ingress 暴露服务的方式:

1.Deployment+LoadBalancer 模式的 Service:

如果要把ingress部署在公有云,那用这种方式比较合适。用Deployment部署ingress-controller,创建一个 type为 LoadBalancer 的 service 关联这组 pod。大部分公有云,都会为 LoadBalancer 的 service 自动创建一个负载均衡器,通常还绑定了公网地址。 只要把域名解析指向该地址,就实现了集群服务的对外暴露

2.DaemonSet+HostNetwork+nodeSelector:

用DaemonSet结合nodeselector来部署ingress-controller到特定的node上,然后使用HostNetwork直接把该pod与宿主机node的网络打通,直接使用宿主机的80/433端口就能访问服务。这时,ingress-controller所在的node机器就很类似传统架构的边缘节点,比如机房入口的nginx服务器。该方式整个请求链路最简单,性能相对NodePort模式更好。缺点是由于直接利用宿主机节点的网络和端口,一个node只能部署一个ingress-controller pod。 比较适合大并发的生产环境使用。

3.Deployment+NodePort模式的Service:

同样用deployment模式部署ingress-controller,并创建对应的service,但是type为NodePort。这样,ingress就会暴露在集群节点ip的特定端口上。由于nodeport暴露的端口是随机端口,一般会在前面再搭建一套负载均衡器来转发请求。该方式一般用于宿主机是相对固定的环境ip地址不变的场景。
NodePort方式暴露ingress虽然简单方便,但是NodePort多了一层NAT,在请求量级很大时可能对性能会有一定影响。

五、部署DaemonSet+HostNetwork暴露Ingress: 

[root@master01 ~]#cd /opt/
[root@master01 opt]#mkdir ingress
[root@master01 opt]#cd ingress/
[root@master01 ingress]#mkdir daemonset
[root@master01 ingress]#cd daemonset/
[root@master01 daemonset]#rz -E
rz waiting to receive.
[root@master01 daemonset]#rz -E
rz waiting to receive.
[root@master01 daemonset]#ls
ingree.contro.tar.gz  mandatory.yaml
#更改配置文件
#修改 Deployment 为 DaemonSet ,指定节点运行,并开启 hostNetwork 网络

vim mandatory.yaml
...
apiVersion: apps/v1
# 修改 kind
# kind: Deployment
kind: DaemonSet
metadata:
  name: nginx-ingress-controller
  namespace: ingress-nginx
  labels:
    app.kubernetes.io/name: ingress-nginx
    app.kubernetes.io/part-of: ingress-nginx
spec:
# 删除Replicas
# replicas: 1
  selector:
    matchLabels:
      app.kubernetes.io/name: ingress-nginx
      app.kubernetes.io/part-of: ingress-nginx
  template:
    metadata:
      labels:
        app.kubernetes.io/name: ingress-nginx
        app.kubernetes.io/part-of: ingress-nginx
      annotations:
        prometheus.io/port: "10254"
        prometheus.io/scrape: "true"
    spec:
      # 使用主机网络
      hostNetwork: true
      # 选择节点运行
      nodeSelector:
        ingress: "true"
      serviceAccountName: nginx-ingress-serviceaccount

指定 nginx-ingress-controller 运行在 node02 节点
kubectl label node node02 ingress=true

kubectl get nodes --show-labels

在所有 node 节点上传 nginx-ingress-controller 镜像压缩包 ingree.contro.tar.gz 到 /opt/ingress 目录,并解压和加载镜像
cd /opt/ingress
tar zxvf ingree.contro.tar.gz
docker load -i ingree.contro.tar

//启动 nginx-ingress-controller
kubectl apply -f mandatory.yaml

//nginx-ingress-controller 已经运行 node02 节点
kubectl get pod -n ingress-nginx -o wide

/到 node02 节点查看
netstat -lntp | grep nginx

创建 ingress 规则
//创建一个 deploy 和 svc
vim service-nginx.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-app
spec:
  replicas: 2
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
        - name: nginx
          image: nginx
          imagePullPolicy: IfNotPresent
          ports:
            - containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
  name: nginx-app-svc
spec:
  type: ClusterIP
  ports:
  - protocol: TCP
    port: 80
    targetPort: 80
  selector:
    app: nginx

 

//创建 ingress
#方法一:(extensions/v1beta1 Ingress 在1.22版本即将弃用)
vim ingress-app.yaml
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
  name: nginx-app-ingress
spec:
  rules:
  - host: www.kgc.com
    http:
      paths:
      - path: /
        backend:
          serviceName: nginx-app-svc
          servicePort: 80

#方法二:
vim ingress-app.yaml	  
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: nginx-app-ingress
spec:
  rules:
  - host: www.kgc.com
    http:
      paths:
      - path: /
        pathType: Prefix     
        backend:
          service:
            name: nginx-app-svc
            port:
              number: 80



kubectl apply -f service-nginx.yaml
kubectl apply -f ingress-app.yaml

kubectl get pods
NAME                         READY   STATUS    RESTARTS   AGE
nginx-app-7bffc778db-sw2hl   1/1     Running   0          42s
nginx-app-7bffc778db-xsd5q   1/1     Running   0          42s

kubectl get ingress
NAME                HOSTS         ADDRESS   PORTS   AGE
nginx-app-ingress   www.kgc.com             80      39s

8、测试访问
//本地 host 添加域名解析
vim /etc/hosts
192.168.10.19 master
192.168.10.20 node01
192.168.10.21 node02
192.168.10.21 www.kgc.com


curl www.kgc.com

查看 nginx-ingress-controller
kubectl get pod -n ingress-nginx -o wide
NAME                             READY   STATUS    RESTARTS   AGE   IP              NODE     NOMINATED NODE   READINESS GATES
nginx-ingress-controller-99h72   1/1     Running   0          93s   192.168.10.21   node02   <none>           <none>

kubectl exec -it nginx-ingress-controller-99h72 -n ingress-nginx /bin/bash
 # more /etc/nginx/nginx.conf
//可以看到从 start server www.kgc.com 到 end server www.kgc.com 之间包含了此域名用于反向代理的配置

 六、Deployment+NodePort模式的Service:

下载 nginx-ingress-controller 和 ingress-nginx 暴露端口配置文件
mkdir /opt/ingress-nodeport
cd /opt/ingress-nodeport

官方下载地址:
wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/nginx-0.30.0/deploy/static/mandatory.yaml
wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/nginx-0.30.0/deploy/static/provider/baremetal/service-nodeport.yaml

国内 gitee 资源地址:
wget https://gitee.com/mirrors/ingress-nginx/raw/nginx-0.30.0/deploy/static/mandatory.yaml
wget https://gitee.com/mirrors/ingress-nginx/raw/nginx-0.30.0/deploy/static/provider/baremetal/service-nodeport.yaml

//启动yaml文档

 

//Ingress HTTP 代理访问

七、总结:

ingress是k8s集群的请求入口,可以理解为对多个service的再次抽象通常说的ingress一般包括ingress资源对象及ingress-controller两部分组成ingress-controller有多种实现,社区原生的是ingress-nginx,根据具体需求选择ingress自身的暴露有多种方式,需要根据基础环境及业务类型选择合适的方式

daemonset +hostnetwork

nodeselector 部署ingress-controller:

客户端---》ingress-controller(pod和Host共享IP和端口)---》业务应用 service--->业务的应用 Pod

Deployment +Nodeport

客户端--》域名访问:Nodeport--》ingress-controller(pod)--》业务应用 service--->业务的应用 Pod

域名可以解析成NodeportIp 或者负载均衡VIP

标签:Ingress,service,yaml,app,ingress,nginx,controller,k8s,对外
From: https://blog.csdn.net/m0_75067030/article/details/139440863

相关文章

  • AnolisOS7.9(CentOS7)部署K8s(1.22.4)集群
    一.安装K8s集群1.准备工作,2台服务器①192.168.5.140-做为master节点#在该节点运行命令设置主机名:hostnamectlset-hostnamemaster②192.168.5.141-做为node1节点,在该节点运行命令设置主机名:#在该节点运行命令设置主机名:hostnamectlset-hostna......
  • 【Kubernetes】k8s的调度约束(亲和与反亲和)
    一、调度约束list-watch组件Kubernetes是通过List-Watch的机制进行每个组件的协作,保持数据同步的,每个组件之间的设计实现了解耦。用户是通过kubectl根据配置文件,向APIServer发送命令,在Node节点上面建立Pod和Container。APIServer经过API调用,权限控制,调......
  • k8s简介
    Kubernetes的架构Kubernetes遵循客户端-服务器架构,其中主服务器安装在一台机器上,节点安装在单独的Linux机器上。它遵循主从模型,使用主服务器管理跨多个Kubernetes节点的Docker容器。主服务器及其控制的节点(工作节点)构成“Kubernetes集群”。开发人员可以在Kubernetes......
  • k8s应用一套yaml配置参考
    从ingress详情和配置来看,有两个svc,一个svc是ingress在往后调度;另外一个是kong网关专用的,直接在空网关里配置,用nodeip:nodeport方式配置转到kongsvc  1、资源[[email protected]]#kubectlgetingress--all-namespaces|grepai-mcwappmyprodnsai-m......
  • k8s-配置资源管理
    一、Secret:1.Secret介绍:Secret是用来保存密码、token、密钥等敏感数据的k8s资源,这类数据虽然也可以存放在Pod或者镜像中,但是放在Secret中是为了更方便的控制如何使用数据,并减少暴露的风险。2.三种类型:●kubernetes.io/service-account-token:由Kubernetes自动创建,......
  • k8s在线修改alertmanager.yml
    简单说明有些情况下,我们可以进入集群查看某些secret的配置,这里如果想修改secret的配置时,没有secrets的源文件,可以采取如下的方案。例如我们需要修改alertmanager.yml的配置:查看导出配置$kubectlgetsecrets-nmonitoringalertmanager-prometheus-alertmanager-o"jsonpat......
  • k8S的kube-proxy相关ipvs
     ipvsadm命令没想到自己之前二进制部署的,也是ipvs代理模式node2上没有装ipvs,也看不了一些ipvs规则 node1上安装ipvsadm,然后就可以看的k8s添加的规则了yuminstallipvsadmbrctl命令k8snode上默认也没有装上这个软件,不过可以安装上,看看容器的网络情况[root@mcwk8s05......
  • K8S-集群-二进制安装
    1、环境准备1.1安装规划 服务器准备服务器ip  组件master-1  192.168.177.15  ectd、api-server、controller-master、scheduler、dockernode-1     192.168.177.16etcd、kubelet、kube-proxy、dockernode-1     192.168.177.17e......
  • k8s——安装istio
    安装istioIstio/入门[root@master~]#curl-Lhttps://istio.io/downloadIstio|sh-%Total%Received%XferdAverageSpeedTimeTimeTimeCurrentDloadUploadTotalSpentLeftSpeed00......
  • 阿里云创建k8s集群实例
    阿里云创建k8s集群实例创建两个8G内存的抢占实例(青岛),能ssh默认关闭防火墙,且没有交换分区配置k8s仓库桥接#重置containerd配置环境重置初始Kubernetes(k8s)集群环境通常涉及一系列步骤,以确保集群被正确地清理并准备好重新部署。以下是基于参考文章提供的信息,整理出......