首页 > 其他分享 >不背锅运维:解读docker容器网络

不背锅运维:解读docker容器网络

时间:2022-11-18 23:12:37浏览次数:62  
标签:背锅 运维 0.0 bytes packets errors dropped docker root

docker的网络模型如下图:

图片

[root@test-a-docker01 ~]# ifconfig
docker0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.17.0.1  netmask 255.255.0.0  broadcast 172.17.255.255
        inet6 fe80::42:dbff:feb7:ad6e  prefixlen 64  scopeid 0x20<link>
        ether 02:42:db:b7:ad:6e  txqueuelen 0  (Ethernet)
        RX packets 170  bytes 19218 (18.7 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 222  bytes 36474 (35.6 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

ens32: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.11.23  netmask 255.255.255.0  broadcast 192.168.11.255
        inet6 fd15:4ba5:5a2b:1008:192:168:11:23  prefixlen 64  scopeid 0x0<global>
        inet6 fe80::f906:733a:ec14:9a9a  prefixlen 64  scopeid 0x20<link>
        inet6 fe80::b57c:b4f:30d1:d6e2  prefixlen 64  scopeid 0x20<link>
        inet6 fe80::b7ae:6dc9:eb0b:6f0d  prefixlen 64  scopeid 0x20<link>
        ether 00:50:56:29:ce:cc  txqueuelen 1000  (Ethernet)
        RX packets 6636  bytes 1370980 (1.3 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 3443  bytes 452340 (441.7 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        inet6 ::1  prefixlen 128  scopeid 0x10<host>
        loop  txqueuelen 1000  (Local Loopback)
        RX packets 32  bytes 2592 (2.5 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 32  bytes 2592 (2.5 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

vethc1173e2: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet6 fe80::e8db:16ff:fe96:ef87  prefixlen 64  scopeid 0x20<link>
        ether ea:db:16:96:ef:87  txqueuelen 0  (Ethernet)
        RX packets 55  bytes 4354 (4.2 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 75  bytes 8788 (8.5 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

[root@test-a-docker01 ~]# 
  • 「veth」xxxxxxx:它主要用于解决网络名称空间之间的隔离,当启动一个容器,会跟着自动创建一个veth虚拟接口,好比是容器接了一条网线到这个veth虚拟接口,并且通过veth虚拟接口和docker0进行通信,veth会随着的容器的启动而自动增加,也会随着容器的销毁而自动销毁,每个容器都会有各自的veth。
  • docker0:是一个虚拟网卡,类似网桥,也可以看成是一个二层网络设备,通过它可以将linux支持的不同的端口连接起来,实现多对多的通信。docker0这个虚拟网卡有个IP地址(172.17.0.1),进去容器里面看网络地址消息,会发现它就是容器的网关

接下来剖析一下细节

不管是运行的还是没有运行的,那么当前都只有一个web01容器在运行

[root@test-a-docker01 ~]# docker ps -a
CONTAINER ID   IMAGE     COMMAND                  CREATED       STATUS       PORTS                                   NAMES
a809b11833c6   nginx     "/docker-entrypoint.…"   4 hours ago   Up 4 hours   0.0.0.0:8080->80/tcp, :::8080->80/tcp   web01
[root@test-a-docker01 ~]# 

查看web01容器的详情,它的输出是json,为了方便查看,可复制出来对json串进行解析

[root@test-a-docker01 ~]# docker inspect web01

丢到https://www.json.cn/进行解析

可通过--format选项直接获取容器web01的ip地址

[root@test-a-docker01 ~]# docker inspect web01 --format='{{.NetworkSettings.IPAddress}}'
172.17.0.2

接下来再拉起一个容器web02

[root@test-a-docker01 ~]# docker run -d -p 8081:80 --name web02 -h web02 -v /data/webdata:/usr/share/nginx/html nginx
092f185073eb5834097fe0d1c4ada3a65b6016e5ad717f1471927ed6c351afec
[root@test-a-docker01 ~]# 
[root@test-a-docker01 ~]# docker ps
CONTAINER ID   IMAGE     COMMAND                  CREATED         STATUS         PORTS                                   NAMES
092f185073eb   nginx     "/docker-entrypoint.…"   5 seconds ago   Up 4 seconds   0.0.0.0:8081->80/tcp, :::8081->80/tcp   web02
a809b11833c6   nginx     "/docker-entrypoint.…"   5 hours ago     Up 5 hours     0.0.0.0:8080->80/tcp, :::8080->80/tcp   web01
[root@test-a-docker01 ~]# 

现在有了两个容器,继续看下网络接口的情况

[root@test-a-docker01 ~]# ifconfig
docker0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.17.0.1  netmask 255.255.0.0  broadcast 172.17.255.255
        inet6 fe80::42:dbff:feb7:ad6e  prefixlen 64  scopeid 0x20<link>
        ether 02:42:db:b7:ad:6e  txqueuelen 0  (Ethernet)
        RX packets 205  bytes 23535 (22.9 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 271  bytes 46325 (45.2 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

ens32: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.11.23  netmask 255.255.255.0  broadcast 192.168.11.255
        inet6 fd15:4ba5:5a2b:1008:192:168:11:23  prefixlen 64  scopeid 0x0<global>
        inet6 fe80::f906:733a:ec14:9a9a  prefixlen 64  scopeid 0x20<link>
        inet6 fe80::b57c:b4f:30d1:d6e2  prefixlen 64  scopeid 0x20<link>
        inet6 fe80::b7ae:6dc9:eb0b:6f0d  prefixlen 64  scopeid 0x20<link>
        ether 00:50:56:29:ce:cc  txqueuelen 1000  (Ethernet)
        RX packets 6935  bytes 1400532 (1.3 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 3598  bytes 473025 (461.9 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        inet6 ::1  prefixlen 128  scopeid 0x10<host>
        loop  txqueuelen 1000  (Local Loopback)
        RX packets 32  bytes 2592 (2.5 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 32  bytes 2592 (2.5 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

veth3a0e879: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet6 fe80::5c99:aaff:fe4e:9cfb  prefixlen 64  scopeid 0x20<link>
        ether 5e:99:aa:4e:9c:fb  txqueuelen 0  (Ethernet)
        RX packets 26  bytes 4357 (4.2 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 48  bytes 10080 (9.8 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

vethc1173e2: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet6 fe80::e8db:16ff:fe96:ef87  prefixlen 64  scopeid 0x20<link>
        ether ea:db:16:96:ef:87  txqueuelen 0  (Ethernet)
        RX packets 64  bytes 4804 (4.6 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 87  bytes 9389 (9.1 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

[root@test-a-docker01 ~]# 

docker0网桥还是1个,「veth」xxxxxxx多了1个,也就是说veth会随着的容器的增加而增加,也会随着容器的销毁而销毁,每个容器都会有各自的veth。

接下来探讨一下,外部是如何访问到容器里提供的服务

图片

创建容器web01

docker run -d -p 8080:80 --name web01 -h web01 -v /data/webdata:/usr/share/nginx/html nginx

-p 选项中,当宿主机接收到一个来自8080端口的请求就会转发给容器的80端口进行处理

这个转发的动作是由iptables的PREROUTING实现,PREROUTING是目的地址转换(DNAT),再结合路由表就可以得知发往172.17.0.0/16网络的数据包由docker0接收,再到veth,最终到达容器。

# 查看dant规则
[root@test-a-docker01 ~]# iptables -t nat -vnL DOCKER
Chain DOCKER (2 references)
 pkts bytes target     prot opt in     out     source               destination         
    0     0 RETURN     all  --  docker0 *       0.0.0.0/0            0.0.0.0/0           
    7   364 DNAT       tcp  --  !docker0 *       0.0.0.0/0            0.0.0.0/0            tcp dpt:8080 to:172.17.0.2:80
    2   104 DNAT       tcp  --  !docker0 *       0.0.0.0/0            0.0.0.0/0            tcp dpt:8081 to:172.17.0.3:80

# 查看路由
[root@test-a-docker01 ~]# ip route
default via 192.168.11.2 dev ens32 proto static metric 100 
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1 
192.168.11.0/24 dev ens32 proto kernel scope link src 192.168.11.23 metric 100 

那么,容器又是如何访问到外部的呢?主要是由iptables的POSTROUTING进行实现,POSTROUTING是源地址转换(SNAT)。

图片

# 查看SNAT规则
[root@test-a-docker01 ~]# iptables -t nat -vnL POSTROUTING
Chain POSTROUTING (policy ACCEPT 18 packets, 1296 bytes)
 pkts bytes target     prot opt in     out     source               destination         
   13   759 MASQUERADE  all  --  *      !docker0  172.17.0.0/16        0.0.0.0/0           
    0     0 MASQUERADE  tcp  --  *      *       172.17.0.2           172.17.0.2           tcp dpt:80
    0     0 MASQUERADE  tcp  --  *      *       172.17.0.3           172.17.0.3           tcp dpt:80
[root@test-a-docker01 ~]# 

# 查看路由表
[root@test-a-docker01 ~]# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
0.0.0.0         192.168.11.2    0.0.0.0         UG    100    0        0 ens32
172.17.0.0      0.0.0.0         255.255.0.0     U     0      0        0 docker0
192.168.11.0    0.0.0.0         255.255.255.0   U     100    0        0 ens32
[root@test-a-docker01 ~]# 

本文转载于(喜欢的盆友关注我们哦):https://mp.weixin.qq.com/s/0DgBK2gXFvV9iY-HJbSDfw

标签:背锅,运维,0.0,bytes,packets,errors,dropped,docker,root
From: https://www.cnblogs.com/ttropsstack/p/16905211.html

相关文章

  • 阿里云Aliyun使用docker-compose pull速度慢
    打开开发者镜像加速配置站点https://cr.console.aliyun.com/cn-shenzhen/instances/mirrors加速器加速器地址https://*复制操作文档UbuntuCentOSMacWindows安......
  • Centos 7 部署 openGauss 3.1.0 级联备库集群及集群缩容删除节点-运维指南
    一、安装环境设置1.1硬件环境名称最低配置建议配置测试配置服务器数量3略略硬盘*至少1GB用于安装openGauss的应用程序。*每个主机需大约300MB用于......
  • docker-compose network名称定义
    docker-compose启动的网络名称:1、没有自定义网络名$catdocker-compose.yamlversion:'2'services:zookeeper1:image:zookeepercontainer_name:zookeeper......
  • pytorch使用docker部署后卡死现象
    现象基于pytorch的模型服务,本地裸跑代码都是正常的,一旦上docker服务部署后,程序会出现卡死现象解决原因是,默认情况下,pytorch会启动宿主机当前的CPU核数作为线程数去运行,......
  • Docker离线部署Nginx
    总体思路:在有网络的环境上制作Nginx的镜像包,导出并上传至无网络的环境上,启动Nginx即可。  在上一篇《无网环境DockerRpm离线安装》里面,已经在联网的机器上安装好了......
  • 数字化运维
    数字化运维的概念以及未来网络运维的趋势运维的发展历程:人工运维→脚本化运维→自动化运维→智能化运维(AIOps)[后两个属于数字化运维]数字化运维是指依托统一的运维平台通......
  • Docker安装nginx
    1、拉取nginx镜像并查看#docker搜索nignxdockersearchnginx#拉取nginx镜像--会从docker官方镜像中拉取dockerpullnginx#查看docker镜像dockerps-a2、运......
  • [转] 不会 find 命令这 7 种用法!你算啥运维人
    原文:https://mp.weixin.qq.com/s/Mm1NFoyz7gy5QtionKLq9w 可以很肯定地说,find命令是Linux后台开发人员必须熟知的操作之一,除非您使用的是WindowsServer。对于技术......
  • docker-compose文件详解
    Compose和Docker兼容性:Compose文件格式有3个版本,分别为1,2.x和3.x目前主流的为3.x其支持docker1.13.0及其以上的版本常用参数:version#指定comp......
  • 无网环境Docker Rpm离线安装
    总体思路:找一台可以联网的linux,下载docker的RPM依赖包而不进行安装(yumlocalinstall),将所有依赖的rpm环境打包好,再在无网环境中解压逐一安装(rpm:--force--nodeps)。提前......