爆款云主机2核4G限时秒杀,88元/年起!
查看详情

活动

天翼云最新优惠活动,涵盖免费试用,产品折扣等,助您降本增效!
热门活动
  • 618智算钜惠季 爆款云主机2核4G限时秒杀,88元/年起!
  • 免费体验DeepSeek,上天翼云息壤 NEW 新老用户均可免费体验2500万Tokens,限时两周
  • 云上钜惠 HOT 爆款云主机全场特惠,更有万元锦鲤券等你来领!
  • 算力套餐 HOT 让算力触手可及
  • 天翼云脑AOne NEW 连接、保护、办公,All-in-One!
  • 中小企业应用上云专场 产品组合下单即享折上9折起,助力企业快速上云
  • 息壤高校钜惠活动 NEW 天翼云息壤杯高校AI大赛,数款产品享受线上订购超值特惠
  • 天翼云电脑专场 HOT 移动办公新选择,爆款4核8G畅享1年3.5折起,快来抢购!
  • 天翼云奖励推广计划 加入成为云推官,推荐新用户注册下单得现金奖励
免费活动
  • 免费试用中心 HOT 多款云产品免费试用,快来开启云上之旅
  • 天翼云用户体验官 NEW 您的洞察,重塑科技边界

智算服务

打造统一的产品能力,实现算网调度、训练推理、技术架构、资源管理一体化智算服务
智算云(DeepSeek专区)
科研助手
  • 算力商城
  • 应用商城
  • 开发机
  • 并行计算
算力互联调度平台
  • 应用市场
  • 算力市场
  • 算力调度推荐
一站式智算服务平台
  • 模型广场
  • 体验中心
  • 服务接入
智算一体机
  • 智算一体机
大模型
  • DeepSeek-R1-昇腾版(671B)
  • DeepSeek-R1-英伟达版(671B)
  • DeepSeek-V3-昇腾版(671B)
  • DeepSeek-R1-Distill-Llama-70B
  • DeepSeek-R1-Distill-Qwen-32B
  • Qwen2-72B-Instruct
  • StableDiffusion-V2.1
  • TeleChat-12B

应用商城

天翼云精选行业优秀合作伙伴及千余款商品,提供一站式云上应用服务
进入甄选商城进入云市场创新解决方案
办公协同
  • WPS云文档
  • 安全邮箱
  • EMM手机管家
  • 智能商业平台
财务管理
  • 工资条
  • 税务风控云
企业应用
  • 翼信息化运维服务
  • 翼视频云归档解决方案
工业能源
  • 智慧工厂_生产流程管理解决方案
  • 智慧工地
建站工具
  • SSL证书
  • 新域名服务
网络工具
  • 翼云加速
灾备迁移
  • 云管家2.0
  • 翼备份
资源管理
  • 全栈混合云敏捷版(软件)
  • 全栈混合云敏捷版(一体机)
行业应用
  • 翼电子教室
  • 翼智慧显示一体化解决方案

合作伙伴

天翼云携手合作伙伴,共创云上生态,合作共赢
天翼云生态合作中心
  • 天翼云生态合作中心
天翼云渠道合作伙伴
  • 天翼云代理渠道合作伙伴
天翼云服务合作伙伴
  • 天翼云集成商交付能力认证
天翼云应用合作伙伴
  • 天翼云云市场合作伙伴
  • 天翼云甄选商城合作伙伴
天翼云技术合作伙伴
  • 天翼云OpenAPI中心
  • 天翼云EasyCoding平台
天翼云培训认证
  • 天翼云学堂
  • 天翼云市场商学院
天翼云合作计划
  • 云汇计划
天翼云东升计划
  • 适配中心
  • 东升计划
  • 适配互认证

开发者

开发者相关功能入口汇聚
技术社区
  • 专栏文章
  • 互动问答
  • 技术视频
资源与工具
  • OpenAPI中心
开放能力
  • EasyCoding敏捷开发平台
培训与认证
  • 天翼云学堂
  • 天翼云认证
魔乐社区
  • 魔乐社区

支持与服务

为您提供全方位支持与服务,全流程技术保障,助您轻松上云,安全无忧
文档与工具
  • 文档中心
  • 新手上云
  • 自助服务
  • OpenAPI中心
定价
  • 价格计算器
  • 定价策略
基础服务
  • 售前咨询
  • 在线支持
  • 在线支持
  • 工单服务
  • 建议与反馈
  • 用户体验官
  • 服务保障
  • 客户公告
  • 会员中心
增值服务
  • 红心服务
  • 首保服务
  • 客户支持计划
  • 专家技术服务
  • 备案管家

了解天翼云

天翼云秉承央企使命,致力于成为数字经济主力军,投身科技强国伟大事业,为用户提供安全、普惠云服务
品牌介绍
  • 关于天翼云
  • 智算云
  • 天翼云4.0
  • 新闻资讯
  • 天翼云APP
基础设施
  • 全球基础设施
  • 信任中心
最佳实践
  • 精选案例
  • 超级探访
  • 云杂志
  • 分析师和白皮书
  • 天翼云·创新直播间
市场活动
  • 2025智能云生态大会
  • 2024智算云生态大会
  • 2023云生态大会
  • 2022云生态大会
  • 天翼云中国行
天翼云
  • 活动
  • 智算服务
  • 产品
  • 解决方案
  • 应用商城
  • 合作伙伴
  • 开发者
  • 支持与服务
  • 了解天翼云
      • 文档
      • 控制中心
      • 备案
      • 管理中心

      Cilium 同节点 pod 通信过程

      首页 知识中心 其他 文章详情页

      Cilium 同节点 pod 通信过程

      2024-07-01 01:32:31 阅读次数:459

      pod

      前提条件

      ​​ebpf-host-routing​​

      • kernel > 5.10

      因为在内核 5.11.0 以后,具备了 ​​bpf_redict_peer()​​​ 和 ​​bpf_redict_neigh()​​ 这两个非常重要的 helper 函数的能力。此能力是来自 Cilium host Routing 的 Feature 引入。

      eBPF Host-Routing

      引入官网中的一段描述:

      We introduced ​​eBPF-based host-routing​​​ in Cilium 1.9 to fully bypass iptables and the upper host stack, and to achieve a faster network namespace switch compared to regular veth device operation. This option is automatically enabled if your kernel supports it. To validate whether your installation is running with eBPF host-routing, run ​​cilium status​​ in any of the Cilium pods and look for the line reporting the status for “Host Routing” which should state “BPF”.

      简单翻译如下:

      在Cilium 1.9中引入了基于eBPF的 Host Routing,可以完全绕过iptables和上层主机堆栈,并且与常规的veth设备操作相比,实现了更快的网络命名空间切换。如果你的内核支持这个选项,它会自动启用。要验证你的安装是否运行了eBPF主机路由,请在任何一个Cilium pods中运行cilium status,寻找报告 "Host Routing "状态的行,它应该显示 "BPF"。

      验证环境 Host Routing 是否是 BPF

      root@master:~# kubectl -n kube-system exec -it cilium-fxdkr -- cilium status | grep -i "Host Routing"
      Defaulted container "cilium-agent" out of: cilium-agent, mount-cgroup (init), clean-cilium-state (init)
      Host Routing: BPF

      bpf_redict_peer()

      如下图所示,​​bpf_redict_peer()​​ 函数可以将同 一个节点的pod 通信的步骤进行省略,报文在从源pod 出来以后,可以直接 redict(直连) 到目的pod 的内部网卡,而不会经过宿主机上与其对应的 LXC 网卡,这样在报文的路径就少了一步转发。

      Cilium 同节点 pod 通信过程

      具体的实现原理,可以查看 cilium 官方社区的一篇博客,这种 redict 的能力,使得 cilium 绕过了 Node 上的 iptables Overhead

      ​​​cni-benchmark​​

      Node network VS container network

      如图所示,在 pod 内部和 在 左边 Node 节点 的 报文封装过程 是类似的,但是 Pod 报文在离开 当前 Node 的时候,还是会在宿主机上同样处理一遍,也就是又经过了一遍的 iptables Overhead。

      Cilium 同节点 pod 通信过程

      Container Network VS Cilium eBPF Container network

      相比于左边的 标准容器网络, cilium 的 eBPF 容器网络的 Host-Routing 特性,使得左边的图的红色圈出来的部分都被跳过,从而直接返回至容器内部的网卡,这个特性使用的就是 ​​bpf_redict_peer()​​ 函数的能力。

      eBPF host-routing 允许绕过主机命名空间中的所有的 iptables 和 上层的overhead 开销,以及穿过 Veth Pair 时的 context-switching 开销,这样网络数据包尽可能早的面向网络设备拾取,并直接传递到 Kubernetes Pod的网络命名空间,在出口端,数据包仍然需要穿过 Veth Pair,被eBPF拾取并直接提交给面向外部的网络接口(就是 宿主机eth0),路由表是直接从 eBPF 查询的,所以这种优化是完全透明,并且与系统上运行的其他提供路由分配的服务兼容。

      Cilium 同节点 pod 通信过程同节点通信抓包验证

      如图所示,我们按照 icmp 报文简单推测一下抓包逻辑

      pod内部 veth 网卡、pod 网卡对应宿主机的 veth 网卡、宿主机网卡

      • POD1:
      • pod1 内veth 网卡:可以正常接收到 request 报文 和 reply 报文
      • node 对应veth 网卡:可以正常接收到 request 报文,但是无法接收 reply 报文
      • POD2
      • pod2 内veth网卡:可以正常接收到 request 报文 和 reply 报文
      • node 对应 veth网卡:可以正常接收到 reply 报文,但是无法接收 request 报文

      Cilium 同节点 pod 通信过程pod 分布情况

      root@master:~# kubectl get pod -o wide 
      NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
      cni-test-76d79dfb85-5l4w9 1/1 Running 0 3d6h 10.0.0.133 <none> <none>
      cni-test-76d79dfb85-7thf8 1/1 Running 0 3d6h 10.0.0.67 <none> <none>

      源地址: 10.0.0.133 -> 目的地址: 10.0.0.67

      pod1 网卡 与宿主机网卡对应关系

      root@master:<sub># kubectl exec -it cni-test-76d79dfb85-5l4w9 -- ethtool -S eth0
      NIC statistics:
      peer_ifindex: 20
      ...

      # 宿主机第 20 口 对应网卡名称
      root@node-1:</sub># ip link show | grep ^20
      20: lxca2865f0fc4cc@if19: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 1000

      pod 2 网卡 与宿主机网卡对应关系

      root@master:<sub># kubectl exec -it cni-test-76d79dfb85-7thf8 -- ethtool -S eth0
      NIC statistics:
      peer_ifindex: 22
      ...

      # 宿主机第 22 口 对应网卡名称
      root@node-1:</sub># ip link show | grep ^22
      22: lxcec93fc837a06@if21: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default qlen 100

      pod1 抓包

      pod1 内部网卡抓包

      kubectl exec -it cni-test-76d79dfb85-5l4w9 -- tcpdump -pne -i eth0 -w pod1_lxc.cap

      pod1 网卡对应 宿主机 lxc 网卡抓包

      tcpdump -pne -i lxca2865f0fc4cc -w pod1_lxc_pair.cap

      pod2 抓包

      pod1 内部网卡抓包

      kubectl exec -it cni-test-76d79dfb85-7thf8 -- tcpdump -pne -i eth0 -w pod2_lxc.cap

      pod1 网卡对应 宿主机 lxc 网卡抓包

      tcpdump -pne -i lxcec93fc837a06 -w pod2_lxc_pair.cap

      pod1 Ping pod2

      root@master:~# kubectl exec -it cni-test-76d79dfb85-5l4w9 -- ping -c 1 10.0.0.67
      PING 10.0.0.67 (10.0.0.67): 56 data bytes
      64 bytes from 10.0.0.67: seq=0 ttl=63 time=0.299 ms

      --- 10.0.0.67 ping statistics ---
      1 packets transmitted, 1 packets received, 0% packet loss

      查看包内容:

      Cilium 同节点 pod 通信过程结论验证:pod1 内 eth0 网卡:可以正常接收到 request 报文 和 reply 报文

      结论验证:pod1 对应 lxc 网卡:可以正常接收到 request 报文,但是无法接收 reply 报文

      Cilium 同节点 pod 通信过程结论验证:pod2 内 eth0 网卡:可以正常接收到 request 报文 和 reply 报文

      Cilium 同节点 pod 通信过程结论验证:pod1 对应 lxc 网卡:可以正常接收到 reply 报文,但是无法接收 request 报文

      Cilium 同节点 pod 通信过程

      pwru 扩展

      使用 pwru 工具抓包
      ​​pwru​​

      还是上边的源地址: 10.0.0.133 -> 目的地址: 10.0.0.67

      pwru 抓包

      在对应 node 节点抓包,使用源地址进行抓包

      pwru --filter-src-ip 10.0.0.67 --output-tuple
      2022/05/03 11:44:07 Attaching kprobes...
      1421 / 1421 [----------------------------------------------------------------------------------------------------------------------------------------] 100.00% 28 p/s
      pwru --filter-src-ip 10.0.0.133 --output-tuple
      2022/05/03 11:43:46 Attaching kprobes...
      1421 / 1421 [----------------------------------------------------------------------------------------------------------------------------------------] 100.00% 27 p/s
      # ping 包测试
      root@master:~# kubectl exec -it cni-test-76d79dfb85-5l4w9 -- ping -c 1 10.0.0.67
      PING 10.0.0.67 (10.0.0.67): 56 data bytes
      64 bytes from 10.0.0.67: seq=0 ttl=63 time=0.507 ms

      --- 10.0.0.67 ping statistics ---
      1 packets transmitted, 1 packets received, 0% packet loss
      round-trip min/avg/max = 0.507/0.507/0.507 ms

      抓包内容:

      root@node-1:~# pwru --filter-src-ip 10.0.0.67 --output-tuple
      2022/05/03 11:44:07 Attaching kprobes...
      1421 / 1421 [----------------------------------------------------------------------------------------------------------------------------------------] 100.00% 28 p/s
      2022/05/03 11:44:57 Attached (ignored 52)
      2022/05/03 11:44:57 Listening for events..
      SKB PROCESS FUNC TIMESTAMP
      0xffff992e59159d00 [ping] ip_send_skb 32578980753945 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [ping] ip_local_out 32578980762591 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [ping] __ip_local_out 32578980765265 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [ping] ip_output 32578980767478 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [ping] nf_hook_slow 32578980770495 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [ping] apparmor_ipv4_postroute 32578980773557 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [ping] ip_finish_output 32578980775740 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [ping] __cgroup_bpf_run_filter_skb 32578980778080 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [ping] __ip_finish_output 32578980780955 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [ping] ip_finish_output2 32578980783494 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] neigh_resolve_output 32578980786897 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] __neigh_event_send 32578980789243 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] eth_header 32578980791631 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] skb_push 32578980793973 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] dev_queue_xmit 32578980796134 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] __dev_queue_xmit 32578980798539 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] netdev_core_pick_tx 32578980800876 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] validate_xmit_skb 32578980804273 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] netif_skb_features 32578980806440 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] passthru_features_check 32578980808938 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] skb_network_protocol 32578980811074 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] validate_xmit_xfrm 32578980813076 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] dev_hard_start_xmit 32578980815288 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] skb_clone_tx_timestamp 32578980818022 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] __dev_forward_skb 32578980820255 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] __dev_forward_skb2 32578980822768 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] skb_scrub_packet 32578980825038 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] eth_type_trans 32578980827462 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] netif_rx 32578980829989 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] netif_rx_internal 32578980831972 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] enqueue_to_backlog 32578980833574 10.0.0.67:0->10.0.0.133:0(icmp)
      0xffff992e59159d00 [<empty>] __netif_receive_skb 32578980847697 10.0.0.67:0->10.0.0.133:0(icmp)
      root@node-1:~# pwru --filter-src-ip 10.0.0.133 --output-tuple
      2022/05/03 11:43:46 Attaching kprobes...
      1421 / 1421 [----------------------------------------------------------------------------------------------------------------------------------------] 100.00% 27 p/s
      2022/05/03 11:44:39 Attached (ignored 52)
      2022/05/03 11:44:39 Listening for events..
      SKB PROCESS FUNC TIMESTAMP
      0xffff992e59159900 [ping] ip_send_skb 32578980483886 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] ip_local_out 32578980504988 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] __ip_local_out 32578980513027 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] ip_output 32578980516168 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] nf_hook_slow 32578980520228 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] apparmor_ipv4_postroute 32578980524494 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] ip_finish_output 32578980528041 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] __cgroup_bpf_run_filter_skb 32578980532607 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] __ip_finish_output 32578980535884 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] ip_finish_output2 32578980540962 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] neigh_resolve_output 32578980544866 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] __neigh_event_send 32578980549401 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] eth_header 32578980552201 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] skb_push 32578980554265 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] dev_queue_xmit 32578980558756 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] __dev_queue_xmit 32578980562637 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] netdev_core_pick_tx 32578980564736 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] validate_xmit_skb 32578980569790 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] netif_skb_features 32578980572386 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] passthru_features_check 32578980575187 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] skb_network_protocol 32578980577416 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] validate_xmit_xfrm 32578980580645 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] dev_hard_start_xmit 32578980583435 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] skb_clone_tx_timestamp 32578980586755 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] __dev_forward_skb 32578980589508 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] __dev_forward_skb2 32578980592276 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] skb_scrub_packet 32578980596446 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] eth_type_trans 32578980600345 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] netif_rx 32578980602431 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] netif_rx_internal 32578980604783 10.0.0.133:0->10.0.0.67:0(icmp)
      0xffff992e59159900 [ping] enqueue_to_backlog 32578980607385 10.0.0.133:0->10.0.0.67:0(icmp)
      2022/05/03 11:46:05 Perf event ring buffer full, dropped 3 samples
      0xffff992e59159900 [ping] skb_ensure_writable 32578980650033 10.0.0.133:0->10.0.0.67:0(icmp)

      cilium monitor 抓包

      查看


      kubectl -n kube-system exec -it cilium-qqf8s -- cilium monitor --debug -vv


      kubectl exec -it cni-test-76d79dfb85-5l4w9 -- ping -c 1 10.0.0.67

      查看对应 pod 的 ID
      Cilium 同节点 pod 通信过程
      抓包内容:
      Cilium 同节点 pod 通信过程关键部分


      # 1. 从这里开始处理分析,这是源地址 10.0.0.133 --> 10.0.0.67,需要经过pod 内部的iptables 处理
      CPU 02: MARK 0x0 FROM 183 DEBUG: Conntrack lookup 1/2: src=10.0.0.133:26368 dst=10.0.0.67:0
      CPU 02: MARK 0x0 FROM 183 DEBUG: Conntrack lookup 2/2: nexthdr=1 flags=1

      # 2. 在cilium中的dst地址被标识成:3352。这是cilium的一个特色。这样当pod重启ip地址变了,policy不变
      CPU 02: MARK 0x0 FROM 183 DEBUG: Successfully mapped addr=10.0.0.67 to identity=3352
      CPU 02: MARK 0x0 FROM 183 DEBUG: Conntrack create: proxy-port=0 revnat=0 src-identity=3352 lb=0.0.0.0

      # 3. 这里注意到我们的ID变了,变成了296,变成了另一个pod
      CPU 02: MARK 0x0 FROM 183 DEBUG: Attempting local delivery for container id 296 from seclabel 3352

      # 4. 说明我们的包,已经到了目的 pod ,目的 pod 收到了源 pod 发的 ICMP 的 request,同样需要经过pod 内部的iptables
      CPU 02: MARK 0x0 FROM 296 DEBUG: Conntrack lookup 1/2: src=10.0.0.133:26368 dst=10.0.0.67:0
      CPU 02: MARK 0x0 FROM 296 DEBUG: Conntrack lookup 2/2: nexthdr=1 flags=0

      -----------------------------------------------------------------------------------------

      # 5. 目的 pod 返回的 reply 报文经过 iptables 处理
      CPU 02: MARK 0x0 FROM 296 DEBUG: Conntrack lookup 1/2: src=10.0.0.67:0 dst=10.0.0.133:26368
      CPU 02: MARK 0x0 FROM 296 DEBUG: Conntrack lookup 2/2: nexthdr=1 flags=1
      CPU 02: MARK 0x0 FROM 296 DEBUG: CT entry found lifetime=16809827, revnat=0
      CPU 02: MARK 0x0 FROM 296 DEBUG: CT verdict: Reply, revnat=0

      # 6.此时数据报文就会通过 bpf_redict_peer() 函数 直接 redict 到本端相同 node 的目的pod 的 eth0接口
      CPU 02: MARK 0x0 FROM 296 DEBUG: Successfully mapped addr=10.0.0.133 to identity=3352
      CPU 02: MARK 0x0 FROM 296 DEBUG: Attempting local delivery for container id 183 from seclabel 3352

      # 7. 数据报文回到源 pod ,此时是经过 pod 内部的,也会经过 iptables 处理
      CPU 02: MARK 0x0 FROM 183 DEBUG: Conntrack lookup 1/2: src=10.0.0.67:0 dst=10.0.0.133:26368
      CPU 02: MARK 0x0 FROM 183 DEBUG: Conntrack lookup 2/2: nexthdr=1 flags=0

      总结

      在启用了 ​​eBPF Host-Routing​​​ 能力后,通过内核的 ​​bpf_redict_peer()​​ 函数,在同节点的 pod 通信,我们的报文可以 redict 到对端 pod 的内部,从而不经过 iptables overhead 封装,这样可以提升网络的响应速度,避免掉多次封装,影响效率。

      Cilium 同节点 pod 通信过程

      版权声明:本文内容来自第三方投稿或授权转载,原文地址:https://blog.51cto.com/liujingyu/5270338,作者:whale_life,版权归原作者所有。本网站转在其作品的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如因作品内容、版权等问题需要同本网站联系,请发邮件至ctyunbbs@chinatelecom.cn沟通。

      上一篇:Kube-Prometheus修改拉取时间

      下一篇:【DockerCE】Docker-CE 20.10.12版本发布

      相关文章

      2025-04-18 07:11:19

      k8s不同role级别的服务发现

      k8s不同role级别的服务发现

      2025-04-18 07:11:19
      k8s , pod , prometheus , role
      2025-04-18 07:11:19

      打镜像部署到k8s中,prometheus配置采集并在grafana看图

      打镜像部署到k8s中,prometheus配置采集并在grafana看图

      2025-04-18 07:11:19
      grafana , node , pod , prometheus , 镜像
      2025-04-18 07:11:11

      k8s容器cpu内存告警指标与资源request和limit

      QoS 是一种控制机制,它提供了针对不同用户或者不同数据流采用相应不同的优先级

      2025-04-18 07:11:11
      container , cpu , limits , pod
      2025-04-18 07:11:11

      使用k8s的sdk编写一个项目获取pod和node信息

      使用k8s的sdk编写一个项目获取pod和node信息

      2025-04-18 07:11:11
      client , k8s , node , pod
      2025-04-16 09:26:39

      prometheus为k8s做的4大适配工作

      prometheus为k8s做的4大适配工作

      2025-04-16 09:26:39
      k8s , pod , 指标 , 组件 , 适配
      2025-04-16 09:26:27

      k8s中我们都需要监控哪些组件

      k8s中我们都需要监控哪些组件

      2025-04-16 09:26:27
      k8s , pod , 指标
      2025-02-17 08:52:45

      【容器】K8S|Podman|容器技术总目录|问题记录

      【容器】K8S|Podman|容器技术总目录|问题记录

      2025-02-17 08:52:45
      lib , mysql , pod , var , 容器
      2024-11-08 08:55:08

      Kubernetes删除node

      Kubernetes删除node

      2024-11-08 08:55:08
      node , pod , 节点
      2024-10-30 08:08:04

      k8s基础篇 pod(九)Pod生命周期

      k8s基础篇 pod(九)Pod生命周期

      2024-10-30 08:08:04
      pod , 容器
      2024-10-30 08:06:48

      k8s基础篇 pod(五)资源清单详细解读

      k8s基础篇 pod(五)资源清单详细解读

      2024-10-30 08:06:48
      k8s , pod
      查看更多
      推荐标签

      作者介绍

      天翼云小翼
      天翼云用户

      文章

      33561

      阅读量

      5227571

      查看更多

      最新文章

      k8s不同role级别的服务发现

      2025-04-18 07:11:19

      使用k8s的sdk编写一个项目获取pod和node信息

      2025-04-18 07:11:11

      prometheus为k8s做的4大适配工作

      2025-04-16 09:26:39

      k8s中我们都需要监控哪些组件

      2025-04-16 09:26:27

      Kubernetes删除node

      2024-11-08 08:55:08

      k8s基础篇 pod(九)Pod生命周期

      2024-10-30 08:08:04

      查看更多

      热门文章

      常见的 Kubernetes 面试题总结

      2023-03-10 03:11:39

      Kubernetes的 pod 重启策略、Pod状态、生命周期

      2023-05-05 10:12:58

      K8S关于pod资源监控

      2023-05-30 08:03:31

      记一次K8s排错实战

      2023-06-08 06:22:12

      排查kubernetes中高磁盘占用pod

      2023-05-05 09:57:52

      kubernetes中master节点和node节点的组件

      2023-05-12 07:08:53

      查看更多

      热门标签

      linux java python javascript 数组 前端 docker Linux vue 函数 shell git 节点 容器 示例
      查看更多

      相关产品

      弹性云主机

      随时自助获取、弹性伸缩的云服务器资源

      天翼云电脑(公众版)

      便捷、安全、高效的云电脑服务

      对象存储

      高品质、低成本的云上存储服务

      云硬盘

      为云上计算资源提供持久性块存储

      查看更多

      随机文章

      记一次K8s排错实战

      Kubernetes的 pod 重启策略、Pod状态、生命周期

      k8s基础篇 pod(五)资源清单详细解读

      k8s基础篇 pod(九)Pod生命周期

      常见的 Kubernetes 面试题总结

      kubernetes中master节点和node节点的组件

      • 7*24小时售后
      • 无忧退款
      • 免费备案
      • 专家服务
      售前咨询热线
      400-810-9889转1
      关注天翼云
      • 旗舰店
      • 天翼云APP
      • 天翼云微信公众号
      服务与支持
      • 备案中心
      • 售前咨询
      • 智能客服
      • 自助服务
      • 工单管理
      • 客户公告
      • 涉诈举报
      账户管理
      • 管理中心
      • 订单管理
      • 余额管理
      • 发票管理
      • 充值汇款
      • 续费管理
      快速入口
      • 天翼云旗舰店
      • 文档中心
      • 最新活动
      • 免费试用
      • 信任中心
      • 天翼云学堂
      云网生态
      • 甄选商城
      • 渠道合作
      • 云市场合作
      了解天翼云
      • 关于天翼云
      • 天翼云APP
      • 服务案例
      • 新闻资讯
      • 联系我们
      热门产品
      • 云电脑
      • 弹性云主机
      • 云电脑政企版
      • 天翼云手机
      • 云数据库
      • 对象存储
      • 云硬盘
      • Web应用防火墙
      • 服务器安全卫士
      • CDN加速
      热门推荐
      • 云服务备份
      • 边缘安全加速平台
      • 全站加速
      • 安全加速
      • 云服务器
      • 云主机
      • 智能边缘云
      • 应用编排服务
      • 微服务引擎
      • 共享流量包
      更多推荐
      • web应用防火墙
      • 密钥管理
      • 等保咨询
      • 安全专区
      • 应用运维管理
      • 云日志服务
      • 文档数据库服务
      • 云搜索服务
      • 数据湖探索
      • 数据仓库服务
      友情链接
      • 中国电信集团
      • 189邮箱
      • 天翼企业云盘
      • 天翼云盘
      ©2025 天翼云科技有限公司版权所有 增值电信业务经营许可证A2.B1.B2-20090001
      公司地址:北京市东城区青龙胡同甲1号、3号2幢2层205-32室
      • 用户协议
      • 隐私政策
      • 个人信息保护
      • 法律声明
      备案 京公网安备11010802043424号 京ICP备 2021034386号