首页 > 其他分享 >网络丢包排查方法

网络丢包排查方法

时间:2024-05-07 16:13:37浏览次数:22  
标签:arp 丢包 00000000 0.00 网络 网卡 排查 net

一、硬件网卡丢包

1.Ring Buffer溢出

Ring Buffer(环形缓冲区)溢出是指当往一个已经满了的环形缓冲区中写入数据时,会覆盖之前存储在缓冲区中的数据。这种情况通常发生在写入速度快于读取速度的情况下。

1.查看Ring Buffer满而丢弃的包统计(fifo字段)
$ ethtool -S eth0|grep rx_fifo
rx_fifo_errors: 0
$ cat /proc/net/dev
Inter-|Receive | Transmitface |bytes packets errs drop fifo frame compressed 
multicast|bytes packets errs drop fifo colls carrier compressed
eth0: 17253386680731 42839525880 0 0 0 0 0 244182022 14879545018057 41657801805 0 0 0 0 0 0

2.查看网卡Ring Buffer最大值和当前设置
ethtool -g eth0

3.修改网卡接收与发送硬件缓存区大小
ethtool -G eth0 rx 4096 tx 4096

2.网卡端口协商丢包

1.查看网卡和上游网络设备协商速率和模式
➜  ~ ifconfig eth0
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.19.6.105  netmask 255.255.192.0  broadcast 172.19.63.255
        ether 00:16:3e:18:9f:57  txqueuelen 1000  (Ethernet)
        RX packets 11631990  bytes 3611913450 (3.3 GiB)
        RX errors 0  dropped 216  overruns 0  frame 0
        TX packets 10461655  bytes 2946312189 (2.7 GiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
        
➜  ~ ethtool -i eth0
driver: virtio_net
version: 1.0.0
firmware-version:
expansion-rom-version:
bus-info: 0000:00:03.0
supports-statistics: no
supports-test: no
supports-eeprom-access: no
supports-register-dump: no
supports-priv-flags: no
➜  ~ ethtool -S eth0
no stats available 

➜  ~ cat /proc/net/dev
Inter-|   Receive                                                |  Transmit
 face |bytes    packets errs drop fifo frame compressed multicast|bytes    packets errs drop fifo colls carrier compressed
  eth0: 3611947360 11632489    0    0    0     0          0         0 2946427291 10462601    0    0    0     0       0          0
    lo:    4215      78    0    0    0     0          0         0     4215      78    0    0    0     0       0          0

2.重新协商
ethtool -r eth1/eth0

3.强制设置端口速率
ethtool -s eth1 speed 1000 duplex full autoneg off

3.网卡流控丢包

网卡流控丢包问题通常是由于发送和接收速率不匹配导致的

1.查看网卡的流控设置
ethtool -a eth0

确保发送方和接收方速率一致:如果发送方的速率大于接收方,则可能会出现丢包情况。你可以通过调整两端设备的速率来解决该问题

2.关闭网卡流控
ethtool -A ethx autoneg off //自协商关闭
ethtool -A ethx tx off //发送模块关闭
ethtool -A ethx rx off //接收模块关闭

二、网卡驱动丢包

1.查看丢包信息

ifconfig eth0
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.100.134  netmask 255.255.255.0  broadcast 192.168.100.255
        inet6 fe80::20c:29ff:feb4:5883  prefixlen 64  scopeid 0x20<link>
        ether 00:0c:29:b4:58:83  txqueuelen 1000  (Ethernet)
        RX packets 102430  bytes 137887910 (131.5 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0 #主要此行
        TX packets 27457  bytes 3144190 (2.9 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

字段解析:

(1)RX errors:表示总的收包的错误数量,还包括too-long-frames错误,Ring Buffer 溢出错误,crc 校验错误,帧同步错误,fifo overruns 以及 missed pkg 等等。
(2)RX dropped:表示数据包已经进入了 Ring Buffer,但是由于内存不够等系统原因,导致在拷贝到内存的过程中被丢弃。
(3)RX overruns:overruns 意味着数据包没到 ring buffer 就被网卡物理层给丢弃了,当驱动处理速度跟不上网卡收包速度时,驱动来不及分配缓冲区,NIC 接收到的数据包无法及时写到 skb,就会产生堆积。当 NIC 内部缓冲区写满后,就会丢弃部分数据,引起丢包。
这部分丢包为 rx_fifo_errors,在 /proc/net/dev 中体现为 fifo 字段增长,在 ifconfig 中体现为 overruns 指标增长,CPU无法及时的处理中断是造成 ring ruffer 满的原因之一,例如中断分配的不均匀。或者 ring buffer 太小导致的。
(4)RX frame: 表示 misaligned 的 frames,对于 TX 的来说,出现上述 counter 增大的原因主要包括 aborted transmission, errors due to carrirer, fifo error, heartbeat erros 以及 windown error,而 collisions 则表示由于 CSMA/CD 造成的传输中断

2.驱动溢出丢包

netdev_max_backlog是内核从NIC收到包后,交由协议栈(如IP、TCP)处理之前的缓冲队列。每个CPU核都有一个backlog队列,与Ring Buffer同理,当接收包的速率大于内核协议栈处理的速率时,CPU的backlog队列不断增长,当达到设定的netdev_max_backlog值时,数据包将被丢弃。

1.查看是否发生netdev backlog队列溢出
00000027 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00007f82 00000000 00000010 00000000 00000000 00000000 00000000 00000000 00000000 00000000

每一行代表每个CPU核的状态统计,从CPU0依次往下

每一列代表一个CPU核的各项统计:
第一列代表中断处理程序收到的包总数;
第二列即代表由于netdev_max_backlog队列溢出而被丢弃的包总数。从上面的输出可以看出,这台服务器统计中,并没有因为netdev_max_backlog导致的丢包,netdev_max_backlog(接收) 和 txqueuelen(发送) 相对应。


2.netdev backlog队列溢出解决方案
netdev_max_backlog的默认值是1000,在高速链路上,可能会出现上述第二统计不为0的情况,可以通过修改内核参数net.core.netdev_max_backlog来解决
sysctl -w net.core.netdev_max_backlog=2000

3.频繁网卡IRQ导致丢包

1.查看是否存在网卡 IRQ频繁导致的丢包
00000027 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000 00000000
00007f9c 00000000 00000010 00000000 00000000 00000000 00000000 00000000 00000000 00000000
第三列一直在增加的话需要,表示 soft IRQ 获取的 CPU 时间太短,来不及处理足够多的网络包,那么需要增大 netdev_budget 值。

2.解决IRQ丢包
budget 默认 300,可以调整
sysctl -w net.core.netdev_budget=600

4.单核负载高导致丢包

单核CPU软中断占有高, 导致应用没有机会收发或者收包比较慢,即使调整netdev_max_backlog队列大小仍然会一段时间后丢包,处理速度跟不上网卡接收的速度

1.查看
mpstat -P ALL 1
Linux 3.10.0-957.el7.x86_64 (localhost.localdomain)     05/07/2024     _x86_64_    (2 CPU)

03:09:59 PM  CPU    %usr   %nice    %sys %iowait    %irq   %soft  %steal  %guest  %gnice   %idle
03:10:00 PM  all    0.52    0.00    2.58    0.00    0.00    0.52    0.00    0.00    0.00   96.39
03:10:00 PM    0    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00    0.00  100.00
03:10:00 PM    1    0.00    0.00    5.21    0.00    0.00    1.04    0.00    0.00    0.00   93.75
单核软中断占有100%,导致应用没有机会收发或者收包比较慢而丢包

2.解决
2.1调整网卡RSS队列配置
查看:ethtool -x eth0;
调整:ethtool -X eth0 xxxx;

三、内核协议栈丢包

1.neighbor系统arp丢包

arp_ignore参数的作用是控制系统在收到外部的arp请求时,是否要返回arp响应。

1.查看
sysctl -a|grep arp_ignore

2.解决
根据实际场景设置对应值

2.arp_filter配置丢包

在多接口系统里面,这些接口都可以回应arp请求,导致对端有可能学到不同的mac地址,后续报文发送可能由于mac地址和接收报文接口mac地址不一样而导致丢包,arp_filter主要是用来适配这种场景

1.查看
sysctl -a | grep arp_filter

2.解决方案
根据实际场景设置对应的值,一般默认是关掉此过滤规则,特殊情况可以打开;
0:默认值,表示回应arp请求的时候不检查接口情况;
1:表示回应arp请求时会检查接口是否和接收请求接口一致,不一致就不回应;

3.arp表满导致丢包

1.查看
查看arp状态:cat /proc/net/stat/arp_cache ,table_fulls统计:

查看dmesg消息(内核打印)
dmesg|grep neighbour
neighbour: arp_cache: neighbor table overflow!

查看当前arp表大小
ip n|wc -l

查看系统配额
sysctl -a |grep net.ipv4.neigh.default.gc_thresh
gc_thresh1:存在于ARP高速缓存中的最少层数,如果少于这个数,垃圾收集器将不会运行。缺省值是128。


gc_thresh2 :保存在 ARP 高速缓存中的最多的记录软限制。垃圾收集器在开始收集前,允许记录数超过这个数字 5 秒。缺省值是 512。
gc_thresh3 :保存在 ARP 高速缓存中的最多记录的硬限制,一旦高速缓存中的数目高于此,垃圾收集器将马上运行。缺省值是1024

2.解决方案
根据实际arp最大值情况(比如访问其他子机最大个数),调整arp表大小
$ sudo sysctl -w net.ipv4.neigh.default.gc_thresh1=1024
$ sudo sysctl -w net.ipv4.neigh.default.gc_thresh2=2048
$ sudo sysctl -w net.ipv4.neigh.default.gc_thresh3=4096
$ sudo sysctl  -p

4.arp请求缓存队列溢出丢包

1.查看
cat /proc/net/stat/arp_cache ,unresolved_discards是否有新增计数

2.解决方案
根据客户需求调整缓存队列大小unres_qlen_bytes:

四、TCP/UDP协议丢包

1.分片重组丢包

1.查看
netstat -s|grep timeout
601 fragments dropped after timeout

2.解决方法
2.1调整超时时间
net.ipv4.ipfrag_time = 30
sysctl -w net.ipv4.ipfrag_time=60


2.2 调整分片内存大小
netstat -s|grep reassembles
8094 packet reassembles failed
解决方案:
调整参数
net.ipv4.ipfrag_high_thresh 
net.ipv4.ipfrag_low_thresh

2.3关闭分片安全检查
netstat -s|grep reassembles
8094 packet reassembles failed
解决方案: 把ipfrag_max_dist设置为0

2.4分片hash bucket冲突链太长超过系统默认值128
dmesg|grep “Dropping fragment”
inet_frag_find: Fragment hash bucket 128 list length grew over limit. Dropping fragment.
解决方案:热补丁调整hash大小

2.5 系统内存不足,创建新分片队列失败
netstat -s|grep reassembles
8094 packet reassembles failed

dropwatch -l kas #dropwatch查看丢包位置
解决方案
增大系统网络内存
net.core.rmem_default 
net.core.rmem_max 
net.core.wmem_default

系统回收内存
echo 3 > /proc/sys/vm/drop_caches

2.TIME_WAIT过多丢包

大量TIMEWAIT出现,并且需要解决的场景,在高并发短连接的TCP服务器上,当服务器处理完请求后立刻按照主动正常关闭连接。。。这个场景下,会出现大量socket处于TIMEWAIT状态。如果客户端的并发量持续很高,此时部分客户端就会显示连接不上

1.查看
dmsg
TCP: time wait bucket table overflow;
系统配置
sysctl -a|grep tcp_max_tw_buckets

解决方案:
1. tw_reuse,tw_recycle 必须在客户端和服务端timestamps 开启时才管用(默认打开)

2. tw_reuse 只对客户端起作用,开启后客户端在1s内回收;

3. tw_recycle对客户端和服务器同时起作用,开启后在3.5*RTO 内回收,RTO 200ms~ 120s具体时间视网络状况。内网状况比tw_reuse稍快,公网尤其移动网络大多要比tw_reuse 慢,优点就是能够回收服务端的TIME_WAIT数量;

在服务端,如果网络路径会经过NAT节点,不要启用net.ipv4.tcp_tw_recycle,会导致时间戳混乱,引起其他丢包问题;

4. 调整tcp_max_tw_buckets大小,如果内存足够:

3.内存不足导致丢包

1.查看
dmesg|grep “out of memory”
系统配置
cat /proc/sys/net/ipv4/tcp_mem
cat /proc/sys/net/ipv4/tcp_rmem
cat /proc/sys/net/ipv4/tcp_wmem

2.解决方案
根据TCP业务并发流量,调整系统参数,一般试着增大2倍或者其他倍数来看是否缓解;
sysclt -w net.ipv4.tcp_mem=
sysclt -w net.ipv4.tcp_wmem=
sysclt -w net.ipv4.tcp_rmem=
sysctl -p

4.TCP超时丢包

1.查看当前端到端网络质量
hping -S 9.199.10.104 -A

2.解决方案
关闭Nagle算法,减少小包延迟;
关闭延迟ack:
sysctl -w net.ipv4.tcp_no_delay_ack=1

5.TCP乱序丢包

#修改TCP无序传送的容错率
sysctl -a|grep tcp_reordering

抄自于:https://mp.weixin.qq.com/

标签:arp,丢包,00000000,0.00,网络,网卡,排查,net
From: https://www.cnblogs.com/panwenbin-logs/p/18177479

相关文章

  • docker网络配置:bridge模式、host模式、container模式、none模式
    在docker平台里有四种网络模式,今天继续分享一下它们的常用知识,进一步加深对docker技术的理解。1、docker网络模式分类dockerrun创建Docker容器时,可以用--net选项指定容器的网络模式,Docker主要有以下4种网络模式。bridge模式:--net=bridge如果不指定的话默认设置。host模式......
  • linux网络-网络文件共享服务
    存储类型存储类型分为三种:直连式存储:Direct-AttachedStorage,简称DAS网络附加存储:Network-AttachedStorage,简称NAS存储区域网络:StorageAreaNetwork,简称SAN三种存储架构的应用场景:DAS虽然比较古老了,但是还是很适用于那些数据量不大,对磁盘访问速度要求较高的中小企业;NA......
  • 【网络知识系列】-- 网络拓扑图S
    一、整体技术体系架构产品清单:下一代防火墙、数据库审计、负载均衡、感知平台+(检测探针)......
  • 为什么会查询不到DNS信息?怎么排查?
    DNS(域名系统)是将域名转换为相应IP地址的关键系统。查询DNS信息具有重要作用,通过查询DNS信息,我们可以知道域名对应的IP地址,这是最主要的信息,使设备能与目标服务器进行通信;其次是域名的相关记录,如MX记录(邮件交换记录)等,了解与邮件服务相关的信息;以及域名的状态,如是否正常等......
  • 便携式手提测试仪设计资料:474-便携式手提万兆网络协议测试仪
    便携式手提万兆网络协议测试仪一、平台简介   便携式手提万兆网络协议测试仪,以FPGA万兆卡和X86主板为基础,构建便携式的手提设备。   FPGA万兆卡是以Kintex-7XC7K325TPCIeX4的双路万兆光纤网络卡,支持万兆网络数据的收发和网络协议的定制设计。  ......
  • 深入剖析:如何使用Pulsar和Arthas高效排查消息队列延迟问题
    背景前两天收到业务反馈有一个topic的分区消息堆积了:根据之前的经验来看,要么是业务消费逻辑出现问题导致消费过慢,当然也有小概率是消息队列的Bug(我们使用的是pulsar)。排查通过排查,发现确实是在一点多的时候消息堆积了(后面是修复之后堆积开始下降)。于是我在刚才堆积处查......
  • 神经网络极简入门
    神经网络是深度学习的基础,正是深度学习的兴起,让停滞不前的人工智能再一次的取得飞速的发展。其实神经网络的理论由来已久,灵感来自仿生智能计算,只是以前限于硬件的计算能力,没有突出的表现,直至谷歌的AlphaGO的出现,才让大家再次看到神经网络相较于传统机器学习的优异表现。本文主要......
  • 记一次java进程频繁挂掉问题排查修复
    前言最近业务部门有个java服务进程会突然无缘无故的挂掉,然后这个服务会产生一堆类似hs_err_pid19287.log这样的日志。业务部门负责人就把hs_err_pidxxx的日志发给我,让我帮忙看下问题。本文就来回顾一下,我是如何帮业务部门进行问题排查排查历程首先hs_err_pidxxx的日志有提示如......
  • SD-WAN,即软件定义的广域网,是一种创新的网络技术
    SD-WAN,即软件定义的广域网,是一种创新的网络技术,它通过利用SDN(软件定义网络)技术,实现了企业网络的快速组网和灵活配置。这种技术可以自动配置终端路由器,使得企业能够轻松地搭建起覆盖传输专线、移动网络、互联网等任何网络的广域网。SD-WAN的核心优势在于其集中管理和智能调度能力......
  • 如何安全可控地进行内外网跨网络传输文件?
    跨网络传输文件通常指的是在不同的网络环境之间移动数据,这在现代企业运营中非常常见。随着网络技术的高速发展,为了有效地保护内部的核心数据资产,企业一般会采用内外网隔离的策略。在进行内外网跨网络传输文件时,需要考虑多种因素,包括但不限于安全性、效率、合规性、技术支持等。......