首页 > 其他分享 >kubernetes中的微服务详解

kubernetes中的微服务详解

时间:2024-10-27 18:20:13浏览次数:8  
标签:kubectl 服务 kubernetes 详解 huazi services master k8s root

华子目录

什么是微服务

控制器来完成集群工作负载,那么应用如何暴漏出去?需要通过微服务暴漏出去后才能被访问

  • Service是一组提供相同服务的Pod对外开放的接口
  • 借助Service,应用可以实现服务发现负载均衡
  • Service默认只支持4层负载均衡能力,没有7层功能。(可以通过Ingress实现)

在这里插入图片描述

微服务的类型

微服务类型作用描述
ClusterIP默认值k8s系统给service自动分配的虚拟ip,只能在集群内部进行访问
NodePortservice通过指定的node上的端口暴露外部,访问任意一个nodeIP:nodePort都将路由到ClusterIP
LoadBalancerNodePort的基础上,借助cloud provider创建一个外部负载均衡器,并将请求转发到NodeIP:NodePort,此模式只能在云服务器上使用
ExternalName服务通过DNS cname记录方式转发到指定的域名(通过spec.externalName设定)
[root@k8s-master ~]# mkdir services
[root@k8s-master ~]# cd services/
#生成控制器文件并建立控制器
[root@k8s-master services]# kubectl create deployment huazi --image myapp:v1 --replicas 2 --dry-run=client -o yaml > huazi-service.yml
[root@k8s-master services]# ls
huazi-service.yml
[root@k8s-master services]# kubectl apply -f huazi-service.yml
deployment.apps/huazi created
[root@k8s-master services]# kubectl get pods -o wide
NAME                     READY   STATUS    RESTARTS   AGE   IP           NODE            NOMINATED NODE   READINESS GATES
huazi-646d7864fd-4rtxl   1/1     Running   0          8s    10.244.2.7   k8s-node2.org   <none>           <none>
huazi-646d7864fd-kxsg9   1/1     Running   0          8s    10.244.1.8   k8s-node1.org   <none>           <none>


[root@k8s-master services]# kubectl expose deployment huazi --port 8080 --target-port 80 --dry-run=client -o yaml >> huazi-service.yml
[root@k8s-master services]# vim huazi-service.yml
[root@k8s-master services]# cat huazi-service.yml
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: huazi
  name: huazi
spec:
  replicas: 2
  selector:
    matchLabels:
      app: huazi
  template:
    metadata:
      labels:
        app: huazi
    spec:
      containers:
      - image: myapp:v1
        name: myapp

---            #不同资源间用---隔开
apiVersion: v1
kind: Service
metadata:
  labels:
    app: huazi
  name: huazi
spec:
  ports:
  - port: 8080
    protocol: TCP
    targetPort: 80
  selector:
    app: huazi
[root@k8s-master services]# kubectl apply -f huazi-service.yml
deployment.apps/huazi configured
service/huazi created
[root@k8s-master services]# kubectl get services
NAME         TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE
huazi        ClusterIP   10.109.230.54   <none>        8080/TCP   10s
kubernetes   ClusterIP   10.96.0.1       <none>        443/TCP    17d

#services的缩写:svc
[root@k8s-master services]# kubectl get svc
NAME         TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE
huazi        ClusterIP   10.109.230.54   <none>        8080/TCP   50s
kubernetes   ClusterIP   10.96.0.1       <none>        443/TCP    17d



[root@k8s-master services]# kubectl get svc huazi --show-labels
NAME    TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE     LABELS
huazi   ClusterIP   10.109.230.54   <none>        8080/TCP   3m13s   app=huazi



[root@k8s-master services]# kubectl get pods -o wide
NAME                     READY   STATUS    RESTARTS   AGE     IP           NODE            NOMINATED NODE   READINESS GATES
huazi-646d7864fd-4rtxl   1/1     Running   0          9m21s   10.244.2.7   k8s-node2.org   <none>           <none>
huazi-646d7864fd-kxsg9   1/1     Running   0          9m21s   10.244.1.8   k8s-node1.org   <none>           <none>


[root@k8s-master services]# kubectl describe svc huazi
Name:              huazi
Namespace:         default
Labels:            app=huazi
Annotations:       <none>
Selector:          app=huazi
Type:              ClusterIP
IP Family Policy:  SingleStack
IP Families:       IPv4
IP:                10.109.230.54
IPs:               10.109.230.54
Port:              <unset>  8080/TCP
TargetPort:        80/TCP
Endpoints:         10.244.1.8:80,10.244.2.7:80
Session Affinity:  None
Events:            <none>

在这里插入图片描述

[root@k8s-master services]# curl 10.109.230.54:8080
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
  • serviceapp标签和控制器中的app标签是一样的
  • 如果pod标签services一致,则podipEndpoints中,如果不一致,会从Endpoints中移除
#可以在火墙中查看策略信息
[root@k8s-master services]# iptables -t nat -nL
Chain KUBE-SERVICES (2 references)
target     prot opt source               destination
KUBE-SVC-NHHAOEMW36LYR3Y5  tcp  --  0.0.0.0/0            10.109.230.54        /* default/huazi cluster IP */ tcp dpt:8080

ipvs模式

  • Services是由kube-proxy组件,加上iptables共同实现
  • kube-proxy通过iptables处理Services的过程,需要在宿主机上设置相当多iptables规则,如果宿主机有大量的Pod,不断刷新iptables规则,会消耗大量的CPU资源
  • IPVS模式的Services,可以使k8s集群支持更多量级Pod

ipvs模式配置方式

  • 所有节点中安装ipvsadm
[root@k8s-master services]# yum install ipvsadm -y
[root@k8s-node1 ~]# yum install ipvsadm -y
[root@k8s-node1 ~]# yum install ipvsadm -y
  • 修改master节点的代理配置
[root@k8s-master services]# kubectl -n kube-system edit cm kube-proxy

在这里插入图片描述

  • 重启pod。在pod运行时配置文件中采用默认配置,当改变配置文件已经运行pod状态不会变化,所以要重启pod
[root@k8s-master services]# kubectl -n kube-system get pods | awk '/kube-proxy/{system("kubectl -n kube-system delete pods "$1)}'

在这里插入图片描述
在这里插入图片描述

注意

切换ipvs模式后,kube-proxy会在宿主机上添加一个虚拟网卡kube-ipvs0,并分配所有serviceIP

[root@k8s-master services]# ip a | tail -n 8
8: kube-ipvs0: <BROADCAST,NOARP> mtu 1500 qdisc noop state DOWN group default
    link/ether 22:eb:d5:60:29:26 brd ff:ff:ff:ff:ff:ff
    inet 10.96.0.10/32 scope global kube-ipvs0
       valid_lft forever preferred_lft forever
    inet 10.109.230.54/32 scope global kube-ipvs0
       valid_lft forever preferred_lft forever
    inet 10.96.0.1/32 scope global kube-ipvs0
       valid_lft forever preferred_lft forever

在这里插入图片描述

  • 当删掉services后,ipvs中的策略自动没了
[root@k8s-master services]# kubectl delete svc huazi
service "huazi" deleted
[root@k8s-master services]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  10.96.0.1:443 rr
  -> 172.25.254.100:6443          Masq    1      0          0
TCP  10.96.0.10:53 rr
  -> 10.244.0.2:53                Masq    1      0          0
  -> 10.244.0.3:53                Masq    1      0          0
TCP  10.96.0.10:9153 rr
  -> 10.244.0.2:9153              Masq    1      0          0
  -> 10.244.0.3:9153              Masq    1      0          0
UDP  10.96.0.10:53 rr
  -> 10.244.0.2:53                Masq    1      0          0
  -> 10.244.0.3:53                Masq    1      0          0

微服务类型详解

ClusterIP类型

clusterip模式只能在集群内访问,并对集群内pod提供健康检测自动发现功能

[root@k8s-master services]# kubectl run testpod --image myapp:v1
pod/testpod created

[root@k8s-master services]# kubectl get pods -o wide --show-labels
NAME      READY   STATUS    RESTARTS   AGE     IP           NODE            NOMINATED NODE   READINESS GATES   LABELS
testpod   1/1     Running   0          3m56s   10.244.2.9   k8s-node2.org   <none>           <none>            run=testpod
[root@k8s-master services]# kubectl expose pod testpod --port 8080 --target-port 80 --dry-run=client -o yaml > testpod-svc.yml


[root@k8s-master services]# vim testpod-svc.yml
[root@k8s-master services]# cat testpod-svc.yml
apiVersion: v1
kind: Service
metadata:
  labels:
    run: testpod
  name: testpod
spec:
  ports:
  - port: 8080
    protocol: TCP
    targetPort: 80
  selector:
    run: testpod
  type: ClusterIP   #设置类型为ClusterIP
[root@k8s-master services]# kubectl apply -f testpod-svc.yml
service/testpod created


[root@k8s-master services]# kubectl get svc testpod
NAME      TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE
testpod   ClusterIP   10.101.174.36   <none>        8080/TCP   60s


[root@k8s-master services]# kubectl describe svc testpod
Name:              testpod
Namespace:         default
Labels:            run=testpod
Annotations:       <none>
Selector:          run=testpod
Type:              ClusterIP
IP Family Policy:  SingleStack
IP Families:       IPv4
IP:                10.101.174.36
IPs:               10.101.174.36
Port:              <unset>  8080/TCP
TargetPort:        80/TCP
Endpoints:         10.244.2.9:80
Session Affinity:  None
Events:            <none>
[root@k8s-master services]# ipvsadm -Ln

我们发现ipvs策略自动添加了

在这里插入图片描述

[root@k8s-master services]# kubectl run testpod1 --image myapp:v1
pod/testpod1 created

[root@k8s-master services]# kubectl get pods -o wide --show-labels
NAME       READY   STATUS    RESTARTS   AGE   IP            NODE            NOMINATED NODE   READINESS GATES   LABELS
testpod    1/1     Running   0          12m   10.244.2.9    k8s-node2.org   <none>           <none>            run=testpod
testpod1   1/1     Running   0          12s   10.244.1.10   k8s-node1.org   <none>           <none>            run=testpod1
[root@k8s-master services]# ipvsadm -Ln

在这里插入图片描述

#当改完标签后,发现testpod1加入到ipvs中
[root@k8s-master services]# kubectl label pod testpod1 run=testpod --overwrite
pod/testpod1 labeled

[root@k8s-master services]# ipvsadm -Ln

在这里插入图片描述

Services创建后集群DNS提供解析

[root@k8s-master services]# kubectl -n default get svc
NAME         TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE
kubernetes   ClusterIP   10.96.0.1       <none>        443/TCP    17d
testpod      ClusterIP   10.101.174.36   <none>        8080/TCP   8m43s



[root@k8s-master services]# kubectl -n kube-system get svc
NAME       TYPE        CLUSTER-IP   EXTERNAL-IP   PORT(S)                  AGE
kube-dns   ClusterIP   10.96.0.10   <none>        53/UDP,53/TCP,9153/TCP   17d
[root@k8s-master services]# dig testpod.default.svc.cluster.local @10.96.0.10

; <<>> DiG 9.16.23-RH <<>> testpod.default.svc.cluster.local @10.96.0.10
;; global options: +cmd
;; Got answer:
;; WARNING: .local is reserved for Multicast DNS
;; You are currently testing what happens when an mDNS query is leaked to DNS
;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 36803
;; flags: qr aa rd; QUERY: 1, ANSWER: 1, AUTHORITY: 0, ADDITIONAL: 1
;; WARNING: recursion requested but not available

;; OPT PSEUDOSECTION:
; EDNS: version: 0, flags:; udp: 4096
; COOKIE: 148e67c3c114f1a0 (echoed)
;; QUESTION SECTION:
;testpod.default.svc.cluster.local. IN  A

;; ANSWER SECTION:
testpod.default.svc.cluster.local. 30 IN A      10.101.174.36

;; Query time: 1 msec
;; SERVER: 10.96.0.10#53(10.96.0.10)
;; WHEN: Mon Oct 21 09:38:00 EDT 2024
;; MSG SIZE  rcvd: 123

在这里插入图片描述
运行一个busyboxplus,在集群内部通过域名访问

[root@k8s-master services]# kubectl run busybox -it --image busyboxplus
/ # curl testpod.default.svc.cluster.local.:8080
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>

因为每开一个podip都会变,所以集群内部沟通都是通过域名进行访问的

/ # curl testpod:8080   #域名会自动补全
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
/ # nslookup testpod
Server:    10.96.0.10
Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local

Name:      testpod
Address 1: 10.101.174.36 testpod.default.svc.cluster.local
#我们发现域名对应的是Services上的ip
#域名自动补全的原因是:/etc/resolv.conf中有记录
/ # cat /etc/resolv.conf
nameserver 10.96.0.10   
search default.svc.cluster.local svc.cluster.local cluster.local org
options ndots:5

ClusterIP中的特殊模式:headless无头服务

  • 流量不经过services,而是直接发送给pod
  • 对于无头Services并不会分配Cluster IPkube-proxy不会处理它们, 而且平台不会为它们进行负载均衡路由集群访问通过dns解析直接指向到业务pod上的IP所有的调度dns单独完成
[root@k8s-master services]# kubectl create deployment huazi --image myapp:v1 --dry-run=client --replicas 2 -o yaml > huazi-dp.yml

[root@k8s-master services]# kubectl apply -f huazi-dp.yml

[root@k8s-master services]# kubectl expose deployment huazi --port 8080 --target-port 80 --dry-run=client -o yaml >> huazi-svc.yml

[root@k8s-master services]# kubectl apply -f huazi-svc.yml

[root@k8s-master services]# ls
huazi-dp.yml  huazi-svc.yml
[root@k8s-master services]# kubectl get pods -o wide --show-labels
NAME                     READY   STATUS    RESTARTS   AGE     IP            NODE            NOMINATED NODE   READINESS GATES   LABELS
huazi-646d7864fd-hs848   1/1     Running   0          7m39s   10.244.2.12   k8s-node2.org   <none>           <none>            app=huazi,pod-template-hash=646d7864fd
huazi-646d7864fd-jzg6b   1/1     Running   0          7m39s   10.244.1.12   k8s-node1.org   <none>           <none>            app=huazi,pod-template-hash=646d7864fd


[root@k8s-master services]# kubectl get svc huazi
NAME    TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE
huazi   ClusterIP   10.97.121.243   <none>        8080/TCP   2m20s
[root@k8s-master services]# vim huazi-svc.yml

在这里插入图片描述

[root@k8s-master services]# kubectl delete -f huazi-svc.yml
service "huazi" deleted

[root@k8s-master services]# kubectl apply -f huazi-svc.yml
service/huazi created
[root@k8s-master services]# kubectl describe svc huazi

在这里插入图片描述

[root@k8s-master services]# kubectl run busybox -it --image busyboxplus
If you don't see a command prompt, try pressing enter.
/ # nslookup huazi
Server:    10.96.0.10
Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local

Name:      huazi
Address 1: 10.244.2.12 10-244-2-12.huazi.default.svc.cluster.local
Address 2: 10.244.1.12 10-244-1-12.huazi.default.svc.cluster.local
# 我们发现域名直接映射到了pod的ip,而不是services上的ip
#进入到busybox中,访问域名

[root@k8s-master services]# kubectl exec -it busybox -- /bin/sh
/ # curl huazi
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
[root@k8s-master services]# ipvsadm -Ln

在这里插入图片描述

NodePort类型

通过ipvs暴漏端口从而使外部主机通过master节点的对外ip:port来访问pod业务

访问过程

在这里插入图片描述

[root@k8s-master services]# vim huazi-dp.yml
[root@k8s-master services]# cat huazi-dp.yml
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: huazi
  name: huazi
spec:
  replicas: 2
  selector:
    matchLabels:
      app: huazi
  template:
    metadata:
      labels:
        app: huazi
    spec:
      containers:
      - image: myapp:v1
        name: myapp

[root@k8s-master services]# vim huazi-svc.yml
[root@k8s-master services]# cat huazi-svc.yml
apiVersion: v1
kind: Service
metadata:
  labels:
    app: huazi
  name: huazi
spec:
  ports:
  - port: 8080
    protocol: TCP
    targetPort: 80
  selector:
    app: huazi
  type: NodePort


[root@k8s-master services]# kubectl apply -f huazi-dp.yml
deployment.apps/huazi created
[root@k8s-master services]# kubectl apply -f huazi-svc.yml
service/huazi created


[root@k8s-master services]# kubectl get pods -o wide --show-labels
NAME                     READY   STATUS    RESTARTS   AGE   IP           NODE            NOMINATED NODE   READINESS GATES   LABELS
huazi-646d7864fd-9877k   1/1     Running   0          38s   10.244.2.4   k8s-node2.org   <none>           <none>            app=huazi,pod-template-hash=646d7864fd
huazi-646d7864fd-j24st   1/1     Running   0          38s   10.244.1.3   k8s-node1.org   <none>           <none>            app=huazi,pod-template-hash=646d7864fd


[root@k8s-master services]# kubectl get svc huazi
NAME    TYPE       CLUSTER-IP     EXTERNAL-IP   PORT(S)          AGE
huazi   NodePort   10.96.205.98   <none>        8080:30310/TCP   18s
[root@k8s-master services]# ipvsadm -Ln

在这里插入图片描述

[root@k8s-master services]# kubectl describe svc huazi
Name:                     huazi
Namespace:                default
Labels:                   app=huazi
Annotations:              <none>
Selector:                 app=huazi
Type:                     NodePort
IP Family Policy:         SingleStack
IP Families:              IPv4
IP:                       10.96.205.98
IPs:                      10.96.205.98
Port:                     <unset>  8080/TCP
TargetPort:               80/TCP
NodePort:                 <unset>  30310/TCP
Endpoints:                10.244.1.3:80,10.244.2.4:80
Session Affinity:         None
External Traffic Policy:  Cluster
Events:                   <none>

访问master的ip:port
在这里插入图片描述

NodePort默认端口

NodePort默认端口是30000-32767超出会报错

[root@k8s-master services]# vim huazi-svc.yml

在这里插入图片描述

[root@k8s-master services]# kubectl apply -f huazi-svc.yml
service/huazi configured
[root@k8s-master services]# kubectl get svc huazi
NAME    TYPE       CLUSTER-IP     EXTERNAL-IP   PORT(S)          AGE
huazi   NodePort   10.96.205.98   <none>        8080:30000/TCP   10m

访问master的ip:port
在这里插入图片描述

[root@k8s-master services]# vim huazi-svc.yml

在这里插入图片描述

[root@k8s-master services]# kubectl apply -f huazi-svc.yml
The Service "huazi" is invalid: spec.ports[0].nodePort: Invalid value: 33333: provided port is not in the valid range. The range of valid ports is 30000-32767

在这里插入图片描述

  • 发现报错了,端口范围只能在30000-32767

如果需要使用这个范围以外端口就需要特殊设定

  • 添加“--service-node-port-range=“ 参数,端口范围可以自定义
  • 修改后api-server自动重启,等api-server正常启动后才能操作集群
  • 集群重启自动完成在修改完参数后全程不需要人为干预
[root@k8s-master services]# vim /etc/kubernetes/manifests/kube-apiserver.yaml

在这里插入图片描述
改了之后,集群自动重启

#我们发现现在就不报错了
[root@k8s-master services]# kubectl apply -f huazi-svc.yml
service/huazi configured


[root@k8s-master services]# kubectl get svc huazi
NAME    TYPE       CLUSTER-IP     EXTERNAL-IP   PORT(S)          AGE
huazi   NodePort   10.96.205.98   <none>        8080:33333/TCP   27m

访问master的ip:port
在这里插入图片描述

LoadBalancer类型

云平台会为我们分配vip实现访问,如果是裸金属主机那么需要metallb来实现ip分配

访问过程

在这里插入图片描述

[root@k8s-master services]# kubectl delete -f huazi-svc.yml
service "huazi" deleted


[root@k8s-master services]# vim huazi-svc.yml

在这里插入图片描述

[root@k8s-master services]# kubectl apply -f huazi-svc.yml
service/huazi created


#我们可以发现EXTERNAL-IP处于pending状态,表示外部负载均衡器的IP地址尚未分配
[root@k8s-master services]# kubectl get svc huazi
NAME    TYPE           CLUSTER-IP    EXTERNAL-IP   PORT(S)          AGE
huazi   LoadBalancer   10.97.214.7   <pending>     8080:34662/TCP   8s
  • 我们可以发现EXTERNAL-IP处于pending状态,表示外部负载均衡器IP地址未分配

LoadBalancer模式适用云平台裸金属环境需要安装metallb提供支持

metalLB

官网:https://metallb.universe.tf/installation/

在这里插入图片描述

metalLB功能
  • LoadBalancer分配vip
部署metalLB
  • 设置ipvs模式
#cm是ConfigMap的缩写
[root@k8s-master services]# kubectl edit cm -n kube-system kube-proxy

在这里插入图片描述

  • 重启pod。在pod运行时配置文件中采用默认配置,当改变配置文件已经运行pod状态不会变化,所以要重启pod
[root@k8s-master services]# kubectl -n kube-system get pods | awk '/kube-proxy/{system("kubectl -n kube-system delete pods "$1)}'
  • 下载部署文件metallb-native.yaml

在这里插入图片描述

[root@k8s-master metalLB]# ls
configmap.yml  metallb-native.yaml  metalLB.tag.gz
  • 修改metallb-native.yaml文件中镜像地址,与harbor仓库路径保持一致
[root@k8s-master metalLB]# vim metallb-native.yaml
...
...
...
image: metallb/controller:v0.14.8
image: metallb/speaker:v0.14.8
...
...
...
  • 上传镜像

在这里插入图片描述

[root@k8s-master metalLB]# docker load -i metalLB.tag.gz

[root@k8s-master metalLB]# docker tag quay.io/metallb/controller:v0.14.8 harbor.huazi.org/metallb/controller:v0.14.8
[root@k8s-master metalLB]# docker tag quay.io/metallb/speaker:v0.14.8 harbor.huazi.org/metallb/speaker:v0.14.8
[root@k8s-master metalLB]# docker push harbor.huazi.org/metallb/controller:v0.14.8
[root@k8s-master metalLB]# docker push harbor.huazi.org/metallb/speaker:v0.14.8

在这里插入图片描述

[root@k8s-master metalLB]# kubectl apply -f metallb-native.yaml

在这里插入图片描述

[root@k8s-master metalLB]# kubectl -n metallb-system get pods
NAME                          READY   STATUS    RESTARTS   AGE
controller-65957f77c8-2p2hj   1/1     Running   0          65s
speaker-jhdfd                 1/1     Running   0          65s
speaker-rflp2                 1/1     Running   0          65s
speaker-vvtlf                 1/1     Running   0          65s
[root@k8s-master metalLB]# cat configmap.yml
apiVersion: metallb.io/v1beta1
kind: IPAddressPool
metadata:
  name: first-pool    #地址池名称
  namespace: metallb-system
spec:
  addresses:
  - 172.25.254.50-172.25.254.99   #修改为自己本地地址段

---                           #两个不同的kind中间必须加分割
apiVersion: metallb.io/v1beta1
kind: L2Advertisement
metadata:
  name: example
  namespace: metallb-system
spec:
  ipAddressPools:
  - first-pool    #使用地址池
[root@k8s-master metalLB]# kubectl apply -f configmap.yml
ipaddresspool.metallb.io/first-pool created
l2advertisement.metallb.io/example created
[root@k8s-master metalLB]# kubectl -n metallb-system get configmaps
NAME                DATA   AGE
kube-root-ca.crt    1      8m29s
metallb-excludel2   1      8m29s

此时我们发现:EXTERNAL-IP已经分配了

[root@k8s-master metalLB]# kubectl get svc huazi
NAME    TYPE           CLUSTER-IP    EXTERNAL-IP     PORT(S)          AGE
huazi   LoadBalancer   10.97.214.7   172.25.254.50   8080:34662/TCP   51m
  • 172.25.254.50是一个vip

在这里插入图片描述

  • 172.25.254.100master真实ip

在这里插入图片描述
真正的云平台上,EXTERNAL-IP是一个公网ip

ExternalName类型

  • 开启Services后,不会被分配IP,而是用dns解析CNAME固定域名来解决ip变化问题
  • 一般应用于外部业务pod沟通或外部业务迁移到pod内时
  • 应用集群迁移过程中,externalname过度阶段就可以起作用了。
  • 集群外的资源迁移到集群时,在迁移的过程ip可能会变化,但是域名+dns解析能完美解决此问题
[root@k8s-master services]# kubectl delete -f huazi-svc.yml
service "huazi" deleted


[root@k8s-master services]# vim huazi-svc.yml

在这里插入图片描述

[root@k8s-master services]# kubectl apply -f huazi-svc.yml
service/huazi created


[root@k8s-master services]# kubectl get svc huazi
NAME    TYPE           CLUSTER-IP   EXTERNAL-IP     PORT(S)    AGE
huazi   ExternalName   <none>       www.baidu.com   8080/TCP   8s
[root@k8s-master services]# kubectl -n kube-system get svc
NAME       TYPE        CLUSTER-IP   EXTERNAL-IP   PORT(S)                  AGE
kube-dns   ClusterIP   10.96.0.10   <none>        53/UDP,53/TCP,9153/TCP   18d

在这里插入图片描述

[root@k8s-master services]# kubectl describe svc huazi
Name:              huazi
Namespace:         default
Labels:            app=huazi
Annotations:       <none>
Selector:          app=huazi
Type:              ExternalName
IP Families:       <none>
IP:
IPs:               <none>
External Name:     www.baidu.com
Port:              <unset>  8080/TCP
TargetPort:        80/TCP
Endpoints:         <none>
Session Affinity:  None
Events:            <none>
#我们可以看到:是百度的服务器在响应
[root@k8s-master services]# kubectl run -it busybox --image busyboxplus
If you don't see a command prompt, try pressing enter.
/ # ping huazi
PING huazi (183.2.172.185): 56 data bytes
64 bytes from 183.2.172.185: seq=0 ttl=127 time=36.577 ms
64 bytes from 183.2.172.185: seq=1 ttl=127 time=34.153 ms
64 bytes from 183.2.172.185: seq=2 ttl=127 time=33.778 ms
64 bytes from 183.2.172.185: seq=3 ttl=127 time=33.871 ms
64 bytes from 183.2.172.185: seq=4 ttl=127 time=36.072 ms
  • ExternalName本质:在集群内部指定一个serviceip,与外部ip进行绑定
  • 当访问集群内部指定一个serviceip,实际访问的是集群外部ip

标签:kubectl,服务,kubernetes,详解,huazi,services,master,k8s,root
From: https://blog.csdn.net/huaz_md/article/details/143127039

相关文章

  • 如何在Linux系统中进行服务器迁移
    ​服务器迁移是一项关键任务,尤其在Linux环境下。以下步骤将指导您完成迁移:1.备份原始数据;2.为迁移选择合适的工具;3.准备新的服务器环境;4.传输数据并确保数据的完整性;5.测试新环境并完成迁移。首先,确保对当前服务器进行全面的备份。1.备份原始数据在开始任何迁移过程之前,始终备......
  • Watt Toolkit 报错:加速服务启动失败,443端口被 svnhttpsvc (4996) 占用
    问题描述WattToolkit(原名Steam++)启动加速时报错,显示443端口被svnhttpsvc(4996)占用了。svnhttpsvc是VisualSVNServer的一个应用程序,使用HTTPS协议,默认端口为443。在任务管理器(桌面底部任务栏右键打开)中搜索进程svnhttpsvc的PID4996可以看到svnhttpsvc是正......
  • 十五、面向服务架构设计理论与实践
             SOA(Service-OrientedArchitecture)面向服务的体系结构,将应用程序的不同功能单元(即服务),通过这些服务之间定义良好的接口和契约联系起来。一、协议介绍 1、BPEL(BusinessProcessExecutionLanguageForWebService)面向Web服务的业务流程执行语言。用户......
  • 腾讯云服务器s3与s2有什么区别
    腾讯云服务器S3与S2有以下区别:一、性能差异;二、用途差异;三、定价差异。性能差异主要表现在处理能力、存储容量和网络性能等方面,S3服务器采用了先进的处理器架构和更高的处理频率,能够提供更快的响应速度和更高的计算性能。一、性能差异性能是选择云服务器时最关键的因素之一。......
  • 局域网使用mkcert配置服务的https访问
    制作ssl证书下载mkcert下载链接:https://github.com/FiloSottile/mkcert/releases安装mkcert(windows为例),生成CA证书下载完成后,在下载目录打开命令行,输入mkcert-install安装CA证书生成自签证书mkcert192.168.2.64或者mkcertexample.com生成自签证书给客户端安装C......
  • 微服务组件Feign远程调用介绍
    微服务组件Feign远程调用介绍一.什么是Feign以及Feign的使用介绍1.什么是Feign,Feign在微服务中扮演怎么样的角色?Feign是一个声明式的Web服务客户端,它使得编写HTTP客户端变得更简单。在微服务架构中,Feign通过注解的方式,将接口方法映射为HTTP请求,极大简化了微服务之......
  • 微服务网关gateway过滤器工厂与自定义过滤器
    gateway过滤器工厂与自定义过滤器过滤器工厂GatewayFilter是网关中提供的一种过滤器,可以对进入网关的请求和微服务返回的响应做处理:1.路由过滤器的种类Spring提供了31种不同的路由过滤器工厂。例如:名称说明AddRequestHeader给当前请求添加一个请求头RemoveRequestHead......
  • transformers 推理 Qwen2.5 等大模型技术细节详解(二)AutoModel 初始化和模型加载(免费
    接上文:transformers推理Qwen2.5等大模型技术细节详解(一)transformers包和对象加载老牛同学和大家通过Transformers框架的一行最常见代码fromtransformersimportAutoModelForCausalLM,走读了transformers包初始化代码的整个流程。从中体会到了dummy对象、LazyModule延迟......
  • 圣诞树html网页代码实操代码详解
    下面是一个简单的HTML网页代码,用于展示一个ASCII艺术风格的圣诞树,以及一些基本的样式。你可以将以下代码复制并粘贴到一个HTML文件中,然后用浏览器打开即可查看效果。```html<!DOCTYPEhtml><htmllang="zh"><head>  <metacharset="UTF-8">  <metaname="viewpor......
  • SpringCloud Alibaba 01 (微服务的概念理解,微服务的环境搭建,微服务的服务注册中心Nacos
    目录了解微服务常用的概念了解项目架构演变掌握微服务环境搭建掌握微服务治理组件-NacosDiscovery掌握微服务负载均衡调度组件-Ribbon掌握微服务远程调度组件-Feign掌握微服务流控容错组件-Sentinel掌握微服务网关组件-Gateway掌握微服务链路追踪组件-Sleuth&Zi......