首页 > 其他分享 >如何找到docker容器中的网卡外联的veth pair的另一张网卡

如何找到docker容器中的网卡外联的veth pair的另一张网卡

时间:2023-08-17 14:57:57浏览次数:35  
标签:容器 00 veth 网卡 外联 ff link

1、概述

  在Docker容器中,每个容器都有一个或多个网络接口(网卡),用于连接容器内部与宿主机或其他容器进行通信。这些网络接口中的一些可能是veth pair,也就是虚拟以太网对,它们以成对的方式存在,一侧连接到容器内部,另一侧连接到宿主机的网络命名空间。veth pair 的一侧称为 "veth",而另一侧通常会被自动分配一个唯一的随机名称。

  默认每个Docker容器都有一个独立的网络命名空间,这意味着容器内部的网络是隔离的,与其他容器和宿主机的网络相互隔离。Docker通过设置网络命名空间以及连接这些veth对来实现网络隔离。

  在容器内部,网卡外联的veth pair的另一侧(宿主机网络命名空间中的一侧)扮演着重要的角色,它实际上连接了容器与宿主机或其他网络资源之间的通信通道。这个网卡承担着以下一些作用:

  1. 通信桥梁:这个网卡使得容器能够与宿主机上的其他网络资源进行通信,包括访问外部网络、与其他容器通信等。

  2. 网络隔离:通过使用veth pair,Docker实现了容器与宿主机之间的网络隔离,从而确保容器内部的网络流量不会直接暴露给宿主机的其他进程。

  3. 网络配置:这个网卡在容器启动时被分配一个IP地址和其他网络配置,使得容器能够在网络上可达。

  4. 网络策略和安全:通过控制这个网卡的流量,可以实现网络策略和安全机制,例如防火墙规则、流量控制等。

2、为什么需要找到宿主机上的veth peer 呢?

  1. 网络故障排除: 有时候容器无法与外部进行通信,需要确定问题是出在容器内部还是宿主机上。通过找到容器内的 veth 接口的另一侧,你可以验证它是否正确配置。

  2. 网络监控和管理: 在一些情况下,你可能希望监控或管理容器的网络流量。找到另一侧的 veth 接口可以帮助你识别特定容器产生的网络流量,并可能应用特定的网络策略。

  3. 容器间通信: 如果你在多个容器之间设置了自己的网络,找到另一侧的 veth 接口可以帮助你建立容器间的通信,例如在不同容器之间进行数据传输或应用程序协作。

  4. 网络配置和优化: 在某些情况下,你可能希望配置容器的网络连接方式,例如限制容器的带宽、更改容器的 IP 地址等。找到另一侧的 veth 接口可以让你更好地了解容器的网络连接,从而进行必要的配置和优化。

  总之,找到容器内的 veth 接口的另一侧是为了更好地理解容器的网络连接,并能够对其进行配置、排除故障、监控和管理。

3、找到docker容器中的网卡外联的veth pair的另一张网卡方式

3.1 方式一,在容器内查看 iflink 文件,前提是能够进入容器内部

进入到容器内部,执行 cd /sys/class/net/ 命令,可以看到当前容器所有网卡,默认容器通过 eth0 网卡和外部环境进行交互,通过 cat /sys/class/net/eth0/iflink 命令可以找到此网卡外联的 veth pair 的另一张网卡的 index。

[root@master1 ~]# kubectl exec -it redis-968b459c9-5kzls /bin/sh
kubectl exec [POD] [COMMAND] is DEPRECATED and will be removed in a future version. Use kubectl exec [POD] -- [COMMAND] instead.
# cd /sys/class/net/
# ls
eth0  lo
# cat /sys/class/net/eth0/iflink
8
#

那么只需要跑到运行此容器的宿主机上,执行如下命令,就能找到对应的 8 的veth网卡是哪一个了。

[root@master2 ~]# ip link show|grep 8
8: veth13c5ce87@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue master cni0 state UP mode DEFAULT group default 
    link/ether 26:c4:8f:04:7a:66 brd ff:ff:ff:ff:ff:ff link-netnsid 0

3.2 方式二,通过ip link查找,前提是能够进入容器内部并且容器内部支持ip link命令

容器内部查看容器网卡信息,注意看3: eth0@if8,其中3是eth0网卡的index,8是和它成对的veth的index。

[root@master1 ~]# kubectl exec -it redis-968b459c9-5kzls /bin/sh
kubectl exec [POD] [COMMAND] is DEPRECATED and will be removed in a future version. Use kubectl exec [POD] -- [COMMAND] instead.
/data # ip link
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
3: eth0@if8: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1450 qdisc noqueue state UP 
    link/ether 8e:57:11:a2:64:cd brd ff:ff:ff:ff:ff:ff

那么只需要到运行此容器的宿主机上,执行如下命令,就能找到对应的 8 的veth网卡是哪一个了。

[root@master2 ~]# ip link show|grep 8
8: veth13c5ce87@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue master cni0 state UP mode DEFAULT group default 
    link/ether 26:c4:8f:04:7a:66 brd ff:ff:ff:ff:ff:ff link-netnsid 0

3.3 方式三,通过ethtool查找,前提是能够进入容器内部并且容器内部支持ethtool命令

首先在容器中执行:ethtool -S eth0 命令,eth0为容器中的网卡的名字。

root@336043b07211:/# ethtool -S eth0
NIC statistics:
     peer_ifindex: 8

 那么只需要到运行此容器的宿主机上,执行如下命令,就能找到对应的 8 的veth网卡是哪一个了。

[root@master2 ~]# ip link show|grep 8
8: veth13c5ce87@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue master cni0 state UP mode DEFAULT group default 
    link/ether 26:c4:8f:04:7a:66 brd ff:ff:ff:ff:ff:ff link-netnsid 0

3.4 方式四,进入容器网络命名空间内部(推荐)

1)找到容器ID

连到运行此容器的宿主机上通过 docker ps 命令找到容器编号,还是以 redis 示例为例。

执行以下命令,可以看到 redis 容器编号是 fa78537331d1。

[root@master1 ~]# ssh master2
[root@master2 ~]# docker ps|grep redis
fa78537331d1   a70d80b7cdb0                             "docker-entrypoint.s…"   2 days ago   Up 2 days             k8s_redis_redis-968b459c9-5kzls_default_81aa239b-4578-4711-bf6c-a7225012f48b_2
3ecfef7dbe7c   10.20.32.201:80/cloudbases/pause:3.4.1   "/pause"                 2 days ago   Up 2 days             k8s_POD_redis-968b459c9-5kzls_default_81aa239b-4578-4711-bf6c-a7225012f48b_21
[root@master2 ~]# 

注意 1,之后进入容器时候使用容器编号 fa78537331d1 或 3ecfef7dbe7c 都可以,他们是同一个 Pod, 共享容器网络命名空间。

2)找到容器网络命名空间编号

通过 'docker inspect --format "{{.State.Pid}}" 容器编号' 命令找到容器网络命名空间编号。

[root@master2 ~]# docker inspect --format "{{.State.Pid}}" fa78537331d1
16712

3)进入容器网络命名空间并查看网卡信息

通过 'nsenter -n -t 网络命名空间编号' 命令进入当前容器网络命名空间,并通过 ip link 命令查看当前容器网卡信息,注意看3: eth0@if8,其中3是eth0网卡的index,8是和它成对的veth 的index。

[root@master2 ~]# nsenter -n -t 16712
[root@master2 ~]# ip link
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
3: eth0@if8: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP mode DEFAULT group default 
    link/ether 8e:57:11:a2:64:cd brd ff:ff:ff:ff:ff:ff link-netnsid 0

4)查找docker容器中的网卡外联的veth pair的另一张网卡

那么只需要到运行此容器的宿主机上,执行如下命令,就能找到对应的 8 的veth网卡是哪一个了。

[root@master2 ~]# ip link show|grep 8
8: veth13c5ce87@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue master cni0 state UP mode DEFAULT group default 
    link/ether 26:c4:8f:04:7a:66 brd ff:ff:ff:ff:ff:ff link-netnsid 0

4、总结

本文介绍了四种查找docker容器中的网卡外联的veth pair的另一张网卡的方式,强烈建议使用方式四。

标签:容器,00,veth,网卡,外联,ff,link
From: https://www.cnblogs.com/zhangmingcheng/p/17637236.html

相关文章

  • centos 7 2009 Linux系统之多网卡Team链路聚合配置
    Linux系统之Team链路聚合配置操作步骤一、Team链路聚合介绍1.Teaming技术简介2.网卡的bonding和Teaming技术3.Team常用工作模式二、实践环境规划三、添加物理网卡1.新增物理网卡2.查看网卡信息四、Team链路聚合配置1.查看team的......
  • 关于VSAN集群主机报"检测到物理网卡错误率较高"告警处理过程
       VSAN集群主机报"检测到物理网卡错误率较高"告警:    1、使用命令检测物理网卡的丢包情况:esxclinetworknicstatsget-nvmnicX。也可以通过主机->监控->VSAN->性能->物理适配器->选择物理适配器观察丢包率和吞吐量情况。     例如:NICstatisticsforvmnic0 ......
  • kvm虚拟化增加网卡
    第一:先进入到kvm机器,执行virt-manager(如果没有的话,就先执行yumgroupinstall'xwindowssystem'-y,等待安装完成之后再执行yuminstallvirt-manager-y,等待安装完成) 第二步:执行完第一步,会弹出图形化界面管理,选择关闭你要配置双网卡的堡垒机,选中之后点击右键(如图) 第三步:再......
  • 网络适配器网卡名称变成wlan2的解决方法
    1、问题现状ipconfig/all的时候发现网络适配器网卡名称变成wlan2了 2、原因分析操作了驱动程序更新、网卡更换、操作系统更新等等会导致网络适配器网卡的名称改变,具体的原因为:第一张网卡是 WLAN,而拔掉第一张网卡或更新驱动、系统之后,第一张网卡变成了隐藏的设备,并占用了......
  • VirtualBox虚拟机设置双网卡:内网固定IP方便内部使用、外网DHCP方便上网
    1.管理->主机网络管理器网卡设置:DHCP服务器设置:2.选定已创建的虚拟主机,设置->网络网卡1设置为:仅主机网卡2设置为:桥接网络 3.主机启动,修改网卡配置 4.查看效果 ......
  • 嵌入式Linux dhcp自动配置usb虚拟网卡ip跟主机通信
    dhcpd自动配置usb虚拟网卡ip,与PC机通信配置buildroot勾选dhcpserver修改设备/etc/dhcp/dhcpd.confoptiondomain-name"example.org";optiondomain-name-serversns1.example.org,ns2.example.org;default-lease-time600;max-lease-time7200;ddns-update-stylen......
  • 单网卡加入OVS网桥
    单网卡的情况下,将网卡加入OVS网桥文档说明:只记录关键的地方;发布时间:2023-08-11环境:ECSdebain11OVS+OVN状态:完善中目的:容器使用OVN实现跨主机通信备注:因主机只有一个网卡网卡信息(IP:172.17.24.114/18gateway172.17.63.255)经验小提示:验证的时......
  • 一文看懂什么样的网络适合部署智能网卡?
    智能网卡可在网络任务方面卸载服务器CPU,提供内存扩展并执行安全操作、硬件加载等关键任务,在多个网络层为服务器提供额外的计算能力。这种可编程的算力设备本身可以高速执行必要的功能,而不是使用传统基础设施中服务器的资源。随着工作负载的日益增加,越来越多智能网卡正在加速服务器......
  • Linux系统多网卡多网段多路由表配置
    Linux多个网卡多个网段存在的问题:1.由于只能配置一个默认网关,所以另外一个口只能配置路由,配置比较复杂;2.如果不配置的话,会存在往返路由不一致的情况,导致网络不通。所以,我们可以通过设置多个路由表的方式来实现源进源出,简单写下步骤:1.nano/etc/iproute2/rt_tables,增加两个网卡(vlan)......
  • centos系统给usb网卡设置静态ip
    centos系统usb网卡设置静态ip有一台普通电脑作为服务器,装centos系统,没有图形界面。因为主板自带的网卡坏了(重新装过的系统发现/etc/sysconfig/network-scripts目录下没有ifcfg-eth0或者ifcfg-ens33这种类似的网络文件),所以用了绿联的usb转网卡插在主机的usb用,插上去后发现是可以自动......