爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      容器应用总是丢包如何分析?

      首页 知识中心 其他 文章详情页

      容器应用总是丢包如何分析?

      2023-07-18 09:51:25 阅读次数:427

      docker,linux,容器

      Docker 容器应用总是丢包如何分析?

      1. 回顾

      容器化后的应用程序,问题分析结合:

      • cgroups 会影响容器应用的运行;
      • iptables 中的 NAT,会影响容器的网络性能;
      • 叠加文件系统,会影响应用的 I/O 性能等。

      就以最常用的反向代理服务器 Nginx 为例,学习丢包的分析方法

      所谓丢包,是指在网络数据的收发过程中,由于种种原因,数据包还没传输到应用程序中,就被丢弃了。这些被丢弃包的数量,除以总的传输包数,也就是我们常说的丢包率。丢包率是网络性能中最核心的指标之一。

      2. 案例准备

      • Ubuntu 18.04 两台
      • 机器配置:2 CPU,8GB 内存
      • 预先安装 docker、curl、hping3 等工具,如 apt install docker.io curl hping3。

      3. 案例分析

      在终端一中执行下面的命令,启动 Nginx 应用,并在 80 端口监听。如果一切正常,你应该可以看到如下的输出:

      $ docker run --name nginx --hostname nginx --privileged -p 80:80 -itd feisky/nginx:drop
      dae0202cc27e5082b282a6aeeb1398fcec423c642e63322da2a97b9ebd7538e0
      
      
      $ docker ps
      CONTAINER ID        IMAGE               COMMAND             CREATED             STATUS              PORTS                NAMES
      dae0202cc27e        feisky/nginx:drop   "/start.sh"         4 minutes ago       Up 4 minutes        0.0.0.0:80->80/tcp   nginx
      

      接着,我们切换到终端二中,执行下面的 hping3 命令,进一步验证 Nginx 是不是真的可以正常访问了。注意,这里我没有使用 ping,是因为 ping 基于 ICMP 协议,而 Nginx 使用的是 TCP 协议。

      # -c表示发送10个请求,-S表示使用TCP SYN,-p指定端口为80
      $ hping3 -c 10 -S -p 80 192.168.0.30
      HPING 192.168.0.30 (eth0 192.168.0.30): S set, 40 headers + 0 data bytes
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=3 win=5120 rtt=7.5 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=4 win=5120 rtt=7.4 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=5 win=5120 rtt=3.3 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=7 win=5120 rtt=3.0 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=6 win=5120 rtt=3027.2 ms
      
      --- 192.168.0.30 hping statistic ---
      10 packets transmitted, 5 packets received, 50% packet loss
      round-trip min/avg/max = 3.0/609.7/3027.2 ms
      

      从 hping3 的输出中,我们可以发现,发送了 10 个请求包,却只收到了 5 个回复,50% 的包都丢了。再观察每个请求的 RTT 可以发现,RTT 也有非常大的波动变化,小的时候只有 3ms,而大的时候则有 3s。根据这些输出,我们基本能判断,已经发生了丢包现象。可以猜测,3s 的 RTT ,很可能是因为丢包后重传导致的。那到底是哪里发生了丢包呢?

      在这里,为了帮你理解网络丢包的原理,我画了一张图,你可以保存并打印出来使用:

      从图中你可以看出,可能发生丢包的位置,实际上贯穿了整个网络协议栈。换句话说,全程都有丢包的可能。比如我们从下往上看:

      • 在两台 VM 连接之间,可能会发生传输失败的错误,比如网络拥塞、线路错误等;
      • 在网卡收包后,环形缓冲区可能会因为溢出而丢包;
      • 在链路层,可能会因为网络帧校验失败、QoS 等而丢包;
      • 在 IP 层,可能会因为路由失败、组包大小超过 MTU 等而丢包;
      • 在传输层,可能会因为端口未监听、资源占用超过内核限制等而丢包;
      • 在套接字层,可能会因为套接字缓冲区溢出而丢包;
      • 在应用层,可能会因为应用程序异常而丢包;
      • 此外,如果配置了 iptables 规则,这些网络包也可能因为 iptables 过滤规则而丢包。

      现在我们切换回终端一,执行下面的命令,进入容器的终端中:

      $ docker exec -it nginx bash
      root@nginx:/#
      

      么, 接下来,我们就可以从协议栈中,逐层排查丢包问题。

      3.1 链路层

      首先,来看最底下的链路层。当缓冲区溢出等原因导致网卡丢包时,Linux 会在网卡收发数据的统计信息中,记录下收发错误的次数。你可以通过 ethtool 或者 netstat ,来查看网卡的丢包记录。比如,可以在容器中执行下面的命令,查看丢包情况:

      root@nginx:/# netstat -i
      Kernel Interface table
      Iface      MTU    RX-OK RX-ERR RX-DRP RX-OVR    TX-OK TX-ERR TX-DRP TX-OVR Flg
      eth0       100       31      0      0 0             8      0      0      0 BMRU
      lo       65536        0      0      0 0             0      0      0      0 LRU
      

      输出中的 RX-OK、RX-ERR、RX-DRP、RX-OVR ,分别表示接收时的总包数、总错误数、进入 Ring Buffer 后因其他原因(如内存不足)导致的丢包数以及 Ring Buffer 溢出导致的丢包数。

      TX-OK、TX-ERR、TX-DRP、TX-OVR 也代表类似的含义,只不过是指发送时对应的各个指标。

      注意,由于 Docker 容器的虚拟网卡,实际上是一对 veth pair,一端接入容器中用作 eth0,另一端在主机中接入 docker0 网桥中。veth 驱动并没有实现网络统计的功能,所以使用 ethtool -S 命令,无法得到网卡收发数据的汇总信息。

      从这个输出中,我们没有发现任何错误,说明容器的虚拟网卡没有丢包。不过要注意,如果用 tc 等工具配置了 QoS,那么 tc 规则导致的丢包,就不会包含在网卡的统计信息中。所以接下来,我们还要检查一下 eth0 上是否配置了 tc 规则,并查看有没有丢包。我们继续容器终端中,执行下面的 tc 命令,不过这次注意添加 -s 选项,以输出统计信息:

      root@nginx:/# tc -s qdisc show dev eth0
      qdisc netem 800d: root refcnt 2 limit 1000 loss 30%
       Sent 432 bytes 8 pkt (dropped 4, overlimits 0 requeues 0)
       backlog 0b 0p requeues 0
      

      从 tc 的输出中可以看到, eth0 上面配置了一个网络模拟排队规则(qdisc netem),并且配置了丢包率为 30%(loss 30%)。再看后面的统计信息,发送了 8 个包,但是丢了 4 个。看来,应该就是这里,导致 Nginx 回复的响应包,被 netem 模块给丢了。既然发现了问题,解决方法也就很简单了,直接删掉 netem 模块就可以了。我们可以继续在容器终端中,执行下面的命令,删除 tc 中的 netem 模块:

      root@nginx:/# tc qdisc del dev eth0 root netem loss 30%
      

      删除后,问题到底解决了没?我们切换到终端二中,重新执行刚才的 hping3 命令,看看现在还有没有问题:

      $ hping3 -c 10 -S -p 80 192.168.0.30
      HPING 192.168.0.30 (eth0 192.168.0.30): S set, 40 headers + 0 data bytes
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=0 win=5120 rtt=7.9 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=2 win=5120 rtt=1003.8 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=5 win=5120 rtt=7.6 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=6 win=5120 rtt=7.4 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=9 win=5120 rtt=3.0 ms
      
      --- 192.168.0.30 hping statistic ---
      10 packets transmitted, 5 packets received, 50% packet loss
      round-trip min/avg/max = 3.0/205.9/1003.8 ms
      

      不幸的是,从 hping3 的输出中,我们可以看到,跟前面现象一样,还是 50% 的丢包;RTT 的波动也仍旧很大,从 3ms 到 1s。显然,问题还是没解决,丢包还在继续发生。不过,既然链路层已经排查完了,我们就继续向上层分析,看看网络层和传输层有没有问题。

      3.2 网络层和传输层

      在网络层和传输层中,引发丢包的因素非常多。不过,其实想确认是否丢包,是非常简单的事,因为 Linux 已经为我们提供了各个协议的收发汇总情况。我们继续在容器终端中,执行下面的 netstat -s 命令,就可以看到协议的收发汇总,以及错误信息了:

      root@nginx:/# netstat -s
      Ip:
          Forwarding: 1          //开启转发
          31 total packets received    //总收包数
          0 forwarded            //转发包数
          0 incoming packets discarded  //接收丢包数
          25 incoming packets delivered  //接收的数据包数
          15 requests sent out      //发出的数据包数
      Icmp:
          0 ICMP messages received    //收到的ICMP包数
          0 input ICMP message failed    //收到ICMP失败数
          ICMP input histogram:
          0 ICMP messages sent      //ICMP发送数
          0 ICMP messages failed      //ICMP失败数
          ICMP output histogram:
      Tcp:
          0 active connection openings  //主动连接数
          0 passive connection openings  //被动连接数
          11 failed connection attempts  //失败连接尝试数
          0 connection resets received  //接收的连接重置数
          0 connections established    //建立连接数
          25 segments received      //已接收报文数
          21 segments sent out      //已发送报文数
          4 segments retransmitted    //重传报文数
          0 bad segments received      //错误报文数
          0 resets sent          //发出的连接重置数
      Udp:
          0 packets received
          ...
      TcpExt:
          11 resets received for embryonic SYN_RECV sockets  //半连接重置数
          0 packet headers predicted
          TCPTimeouts: 7    //超时数
          TCPSynRetrans: 4  //SYN重传数
        ...
      

      netstat 汇总了 IP、ICMP、TCP、UDP 等各种协议的收发统计信息。不过,我们的目的是排查丢包问题,所以这里主要观察的是错误数、丢包数以及重传数。根据上面的输出,你可以看到,只有 TCP 协议发生了丢包和重传,分别是:

      • 11 次连接失败重试(11 failed connection attempts)
      • 4 次重传(4 segments retransmitted)
      • 11 次半连接重置(11 resets received for embryonic SYN_RECV sockets)
      • 4 次 SYN 重传(TCPSynRetrans)
      • 7 次超时(TCPTimeouts)

      这个结果告诉我们,TCP 协议有多次超时和失败重试,并且主要错误是半连接重置。换句话说,主要的失败,都是三次握手失败。不过,虽然在这儿看到了这么多失败,但具体失败的根源还是无法确定。所以,我们还需要继续顺着协议栈来分析。

      3.3 iptables

      首先我们要知道,除了网络层和传输层的各种协议,iptables 和内核的连接跟踪机制也可能会导致丢包。所以,这也是发生丢包问题时,我们必须要排查的一个因素。

      我们先来看看连接跟踪,要确认是不是连接跟踪导致的问题,其实只需要对比当前的连接跟踪数和最大连接跟踪数即可。不过,由于连接跟踪在 Linux 内核中是全局的(不属于网络命名空间),我们需要退出容器终端,回到主机中来查看。你可以在容器终端中,执行 exit ;然后执行下面的命令,查看连接跟踪数:

      # 容器终端中执行exit
      root@nginx:/# exit
      exit
      
      # 主机终端中查询内核配置
      $ sysctl net.netfilter.nf_conntrack_max
      net.netfilter.nf_conntrack_max = 262144
      $ sysctl net.netfilter.nf_conntrack_count
      net.netfilter.nf_conntrack_count = 182
      

      从这儿你可以看到,连接跟踪数只有 182,而最大连接跟踪数则是 262144。显然,这里的丢包,不可能是连接跟踪导致的。接着,再来看 iptables。回顾一下 iptables 的原理,它基于 Netfilter 框架,通过一系列的规则,对网络数据包进行过滤(如防火墙)和修改(如 NAT)。

      些 iptables 规则,统一管理在一系列的表中,包括 filter(用于过滤)、nat(用于 NAT)、mangle(用于修改分组数据) 和 raw(用于原始数据包)等。而每张表又可以包括一系列的链,用于对 iptables 规则进行分组管理。

      对于丢包问题来说,最大的可能就是被 filter 表中的规则给丢弃了。要弄清楚这一点,就需要我们确认,那些目标为 DROP 和 REJECT 等会弃包的规则,有没有被执行到。

      你可以把所有的 iptables 规则列出来,根据收发包的特点,跟 iptables 规则进行匹配。不过显然,如果 iptables 规则比较多,这样做的效率就会很低。当然,更简单的方法,就是直接查询 DROP 和 REJECT 等规则的统计信息,看看是否为 0。如果统计值不是 0 ,再把相关的规则拎出来进行分析。

      我们可以通过 iptables -nvL 命令,查看各条规则的统计信息。比如,你可以执行下面的 docker exec 命令,进入容器终端;然后再执行下面的 iptables 命令,就可以看到 filter 表的统计数据了:

      # 在主机中执行
      $ docker exec -it nginx bash
      
      # 在容器中执行
      root@nginx:/# iptables -t filter -nvL
      Chain INPUT (policy ACCEPT 25 packets, 1000 bytes)
       pkts bytes target     prot opt in     out     source               destination
          6   240 DROP       all  --  *      *       0.0.0.0/0            0.0.0.0/0            statistic mode random probability 0.29999999981
      
      Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
       pkts bytes target     prot opt in     out     source               destination
      
      Chain OUTPUT (policy ACCEPT 15 packets, 660 bytes)
       pkts bytes target     prot opt in     out     source               destination
          6   264 DROP       all  --  *      *       0.0.0.0/0            0.0.0.0/0            statistic mode random probability 0.29999999981
      

      从 iptables 的输出中,你可以看到,**两条 DROP 规则的统计数值不是 0,它们分别在 INPUT 和 OUTPUT 链中。这两条规则实际上是一样的,指的是使用 statistic 模块,进行随机 30% 的丢包。**再观察一下它们的匹配规则。**0.0.0.0/0 表示匹配所有的源 IP 和目的 IP,也就是会对所有包都进行随机 30% 的丢包。**看起来,这应该就是导致部分丢包的“罪魁祸首”了。既然找出了原因,接下来的优化就比较简单了。比如,把这两条规则直接删除就可以了。我们可以在容器终端中,执行下面的两条 iptables 命令,删除这两条 DROP 规则:

      root@nginx:/# iptables -t filter -D INPUT -m statistic --mode random --probability 0.30 -j DROP
      root@nginx:/# iptables -t filter -D OUTPUT -m statistic --mode random --probability 0.30 -j DROP
      

      删除后,问题是否就被解决了呢?我们可以切换到终端二中,重新执行刚才的 hping3 命令,看看现在是否正常:

      $ hping3 -c 10 -S -p 80 192.168.0.30
      HPING 192.168.0.30 (eth0 192.168.0.30): S set, 40 headers + 0 data bytes
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=0 win=5120 rtt=11.9 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=1 win=5120 rtt=7.8 ms
      ...
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=9 win=5120 rtt=15.0 ms
      
      --- 192.168.0.30 hping statistic ---
      10 packets transmitted, 10 packets received, 0% packet loss
      round-trip min/avg/max = 3.3/7.9/15.0 ms
      

      这次输出你可以看到,现在已经没有丢包了,并且延迟的波动变化也很小。看来,丢包问题应该已经解决了。

      不过,到目前为止,我们一直使用的 hping3 工具,只能验证案例 Nginx 的 80 端口处于正常监听状态,却还没有访问 Nginx 的 HTTP 服务。所以,不要匆忙下结论结束这次优化,我们还需要进一步确认,Nginx 能不能正常响应 HTTP 请求。

      我们继续在终端二中,执行如下的 curl 命令,检查 Nginx 对 HTTP 请求的响应:

      $ curl --max-time 3 http://192.168.0.30
      curl: (28) Operation timed out after 3000 milliseconds with 0 bytes received
      

      从 curl 的输出中,你可以发现,这次连接超时了。可是,刚才我们明明用 hping3 验证了端口正常,现在却发现 HTTP 连接超时,是不是因为 Nginx 突然异常退出了呢?不妨再次运行 hping3 来确认一下:

      $ hping3 -c 3 -S -p 80 192.168.0.30
      HPING 192.168.0.30 (eth0 192.168.0.30): S set, 40 headers + 0 data bytes
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=0 win=5120 rtt=7.8 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=1 win=5120 rtt=7.7 ms
      len=44 ip=192.168.0.30 ttl=63 DF id=0 sport=80 flags=SA seq=2 win=5120 rtt=3.6 ms
      
      --- 192.168.0.30 hping statistic ---
      3 packets transmitted, 3 packets received, 0% packet loss
      round-trip min/avg/max = 3.6/6.4/7.8 ms
      

      奇怪,hping3 的结果显示,Nginx 的 80 端口确确实实还是正常状态。这该如何是好呢?别忘了,我们还有个大杀器——抓包操作。看来有必要抓包看看了。

      3.4 tcpdump

      接下来,我们切换回终端一,在容器终端中,执行下面的 tcpdump 命令,抓取 80 端口的包:

      root@nginx:/# tcpdump -i eth0 -nn port 80
      tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
      listening on eth0, link-type EN10MB (Ethernet), capture size 262144 bytes   
      

      然后,切换到终端二中,再次执行前面的 curl 命令:

      $ curl --max-time 3 http://192.168.0.30/
      curl: (28) Operation timed out after 3000 milliseconds with 0 bytes received
      

      等到 curl 命令结束后,再次切换回终端一,查看 tcpdump 的输出:

      14:40:00.589235 IP 10.255.255.5.39058 > 172.17.0.2.80: Flags [S], seq 332257715, win 29200, options [mss 1418,sackOK,TS val 486800541 ecr 0,nop,wscale 7], length 0
      14:40:00.589277 IP 172.17.0.2.80 > 10.255.255.5.39058: Flags [S.], seq 1630206251, ack 332257716, win 4880, options [mss 256,sackOK,TS val 2509376001 ecr 486800541,nop,wscale 7], length 0
      14:40:00.589894 IP 10.255.255.5.39058 > 172.17.0.2.80: Flags [.], ack 1, win 229, options [nop,nop,TS val 486800541 ecr 2509376001], length 0
      14:40:03.589352 IP 10.255.255.5.39058 > 172.17.0.2.80: Flags [F.], seq 76, ack 1, win 229, options [nop,nop,TS val 486803541 ecr 2509376001], length 0
      14:40:03.589417 IP 172.17.0.2.80 > 10.255.255.5.39058: Flags [.], ack 1, win 40, options [nop,nop,TS val 2509379001 ecr 486800541,nop,nop,sack 1 {76:77}], length 0
      

      经过这么一系列的操作,从 tcpdump 的输出中,我们就可以看到:

      • 前三个包是正常的 TCP 三次握手,这没问题;
      • 但第四个包却是在 3 秒以后了,并且还是客户端(VM2)发送过来的 FIN 包,也就说明,客户端的连接关闭了。

      我想,根据 curl 设置的 3 秒超时选项,你应该能猜到,这是因为 curl 命令超时后退出了。我把这一过程,用 TCP 交互的流程图(实际上来自 Wireshark 的 Flow Graph)来表示,你可以更清楚地看到上面这个问题:

      容器应用总是丢包如何分析?
      这里比较奇怪的是,我们并没有抓取到 curl 发来的 HTTP GET 请求。那么,究竟是网卡丢包了,还是客户端压根儿就没发过来呢?我们可以重新执行 netstat -i 命令,确认一下网卡有没有丢包问题:

      root@nginx:/# netstat -i
      Kernel Interface table
      Iface      MTU    RX-OK RX-ERR RX-DRP RX-OVR    TX-OK TX-ERR TX-DRP TX-OVR Flg
      eth0       100      157      0    344 0            94      0      0      0 BMRU
      lo       65536        0      0      0 0             0      0      0      0 LRU
      

      还是那句话,遇到搞不懂的现象,不妨先去查查工具和方法的原理。我们可以对比一下这两个工具:

      • hping3 实际上只发送了 SYN 包;
      • 而 curl 在发送 SYN 包后,还会发送 HTTP GET 请求。

      HTTP GET ,本质上也是一个 TCP 包,但跟 SYN 包相比,它还携带了 HTTP GET 的数据。那么,通过这个对比,你应该想到了,这可能是 MTU 配置错误导致的。为什么呢?

      其实,仔细观察上面 netstat 的输出界面,第二列正是每个网卡的 MTU 值。eth0 的 MTU 只有 100,而以太网的 MTU 默认值是 1500,这个 100 就显得太小了。

      当然,MTU 问题是很好解决的,把它改成 1500 就可以了。我们继续在容器终端中,执行下面的命令,把容器 eth0 的 MTU 改成 1500:

      root@nginx:/# ifconfig eth0 mtu 1500
      

      修改完成后,再切换到终端二中,再次执行 curl 命令,确认问题是否真的解决了:

      $ curl --max-time 3 http://192.168.0.30/
      <!DOCTYPE html>
      <html>
      ...
      <p><em>Thank you for using nginx.</em></p>
      </body>
      </html>
      

      非常不容易呀,这次终于看到了熟悉的 Nginx 响应,说明丢包的问题终于彻底解决了。

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://ghostwritten.blog.csdn.net/article/details/119419498,作者:ghostwritten,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:post-大文件上传

      下一篇:linux 【CPU性能】怎么理解linux的CPU 上下文切换

      相关文章

      2025-05-19 09:04:53

      容器技术-Docker 容器的端口发布

      容器技术-Docker 容器的端口发布

      2025-05-19 09:04:53
      Docker , 容器 , 指定 , 映射 , 端口
      2025-05-19 09:04:53

      查看RISC-V版本的gcc中默认定义的宏

      查看RISC-V版本的gcc中默认定义的宏

      2025-05-19 09:04:53
      c++ , linux
      2025-05-14 09:51:21

      Docker大学生看了都会系列(十、Docker网络)

      docker使用Linux桥接网卡,在宿主机虚拟一个docker容器网桥(docker0),docker启动一个容器时会根据docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网络网关。

      2025-05-14 09:51:21
      docker , Docker , 容器 , 宿主机 , 模式 , 网桥 , 网络
      2025-05-14 09:51:21

      Docker大学生看了都会系列(三、常用帮助、镜像、容器命令)

      Docker大学生看了都会系列(三、常用帮助、镜像、容器命令)

      2025-05-14 09:51:21
      container , docker , 命令 , 容器 , 查看 , 镜像
      2025-05-12 08:43:47

      盛最多水的容器

      给定一个长度为 n 的整数数组 height 。有 n 条垂线,第 i 条线的两个端点是 (i, 0) 和 (i, height[i]) 。

      2025-05-12 08:43:47
      lt , 容器 , 示例
      2025-05-09 08:50:35

      STL:Stack和Queue的模拟实现

      适配器是一种设计模式(设计模式是一套被反复使用的、多数人知晓的、经过分类编目的、代码设计经验的总结),该种模式是将一个类的接口转换成客户希望的另外一个接口。

      2025-05-09 08:50:35
      deque , queue , stack , 元素 , 容器 , 底层 , 适配器
      2025-05-09 08:20:32

      STL:模版进阶 | Priority_queue的模拟实现

      模板参数分类为类型形参与非类型形参。

      2025-05-09 08:20:32
      函数 , 参数 , 容器 , 模板 , 模版 , 类型
      2025-05-07 09:09:52

      【C++/STL】stack/queue的使用及底层剖析&&双端队列&&容器适配器

      适配器是一种设计模式(设计模式是一套被反复使用的、多数人知晓的、经过分类编目的、代码设计经验的总结),该种模式是将一个类的接口转换成客户希望的另外一个接口。

      2025-05-07 09:09:52
      deque , queue , stack , STL , 容器
      2025-05-06 09:19:21

      【Linux 从基础到进阶】Kubernetes 集群搭建与管理

      Kubernetes(简称 K8s)是一个用于自动化部署、扩展和管理容器化应用程序的开源平台。它提供了容器编排功能,能够管理大量的容器实例,并支持应用的自动扩展、高可用性和自愈能力。

      2025-05-06 09:19:21
      Kubernetes , Pod , 容器 , 节点 , 集群
      2025-05-06 09:18:49

      【Linux 从基础到进阶】Docker 网络配置与调优

      Docker 提供了强大的网络功能,使得容器之间、容器与宿主机、容器与外部网络之间的通信变得高效而灵活。理解和优化 Docker 网络配置对于确保容器应用的性能和可靠性至关重要。

      2025-05-06 09:18:49
      Docker , 容器 , 宿主机 , 网络
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5248098

      查看更多

      最新文章

      查看RISC-V版本的gcc中默认定义的宏

      2025-05-19 09:04:53

      容器技术-Docker 容器的端口发布

      2025-05-19 09:04:53

      Docker大学生看了都会系列(三、常用帮助、镜像、容器命令)

      2025-05-14 09:51:21

      Docker大学生看了都会系列(十、Docker网络)

      2025-05-14 09:51:21

      盛最多水的容器

      2025-05-12 08:43:47

      STL:模版进阶 | Priority_queue的模拟实现

      2025-05-09 08:20:32

      查看更多

      热门文章

      Linux crontab 任务误删恢复及备份步骤

      2023-03-20 08:19:07

      docker学习-构建镜像

      2023-04-19 09:22:48

      Linux 趣味小知识--软硬连接以及应用

      2023-04-23 09:32:49

      Linux常用命令总结

      2023-05-12 07:20:42

      linux-压缩与解压缩

      2023-05-15 10:03:24

      linux基本命令(47)——iostat命令

      2023-05-12 07:21:43

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      Linux Command sar 网卡流量

      vim的寄存器详解

      ECS如何安装可视化桌面

      linux基本命令(22)——find命令参数详解

      Linux之查看命令帮助 --help man

      Linux基础(3)Linux常用文件处理命令

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号