Linux网络 - 数据包的发送过程

系统 Linux
继上一篇介绍了数据包的接收过程后,本文将介绍在Linux系统中,数据包是如何一步一步从应用程序到网卡并最终发送出去的。

Linux网络 - 数据包的发送过程

继上一篇介绍了数据包的接收过程后,本文将介绍在Linux系统中,数据包是如何一步一步从应用程序到网卡并最终发送出去的。

如果英文没有问题,强烈建议阅读后面参考里的文章,里面介绍的更详细。

本文只讨论以太网的物理网卡,并且以一个UDP包的发送过程作为示例,由于本人对协议栈的代码不熟,有些地方可能理解有误,欢迎指正

socket层

  1.                +-------------+ 
  2.                | Application | 
  3.                +-------------+ 
  4.                      | 
  5.                      | 
  6.                      ↓ 
  7. +------------------------------------------+ 
  8. | socket(AF_INET, SOCK_DGRAM, IPPROTO_UDP) | 
  9. +------------------------------------------+ 
  10.                      | 
  11.                      | 
  12.                      ↓ 
  13.            +-------------------+ 
  14.            | sendto(sock, ...) | 
  15.            +-------------------+ 
  16.                      | 
  17.                      | 
  18.                      ↓ 
  19.               +--------------+ 
  20.               | inet_sendmsg | 
  21.               +--------------+ 
  22.                      | 
  23.                      | 
  24.                      ↓ 
  25.              +---------------+ 
  26.              | inet_autobind | 
  27.              +---------------+ 
  28.                      | 
  29.                      | 
  30.                      ↓ 
  31.                +-----------+ 
  32.                | UDP layer | 
  33.                +-----------+  
  • socket(...): 创建一个socket结构体,并初始化相应的操作函数,由于我们定义的是UDP的socket,所以里面存放的都是跟UDP相关的函数
  • sendto(sock, ...): 应用层的程序(Application)调用该函数开始发送数据包,该函数数会调用后面的inet_sendmsg
  • inet_sendmsg: 该函数主要是检查当前socket有没有绑定源端口,如果没有的话,调用inet_autobind分配一个,然后调用UDP层的函数
  • inet_autobind: 该函数会调用socket上绑定的get_port函数获取一个可用的端口,由于该socket是UDP的socket,所以get_port函数会调到UDP代码里面的相应函数。

UDP层

  1.      | 
  2.             | 
  3.             ↓ 
  4.      +-------------+ 
  5.      | udp_sendmsg | 
  6.      +-------------+ 
  7.             | 
  8.             | 
  9.             ↓ 
  10.  +----------------------+ 
  11.  | ip_route_output_flow | 
  12.  +----------------------+ 
  13.             | 
  14.             | 
  15.             ↓ 
  16.      +-------------+ 
  17.      | ip_make_skb | 
  18.      +-------------+ 
  19.             | 
  20.             | 
  21.             ↓ 
  22. +------------------------+ 
  23. | udp_send_skb(skb, fl4) | 
  24. +------------------------+ 
  25.             | 
  26.             | 
  27.             ↓ 
  28.        +----------+ 
  29.        | IP layer | 
  30.        +----------+  
  • udp_sendmsg: udp模块发送数据包的入口,该函数较长,在该函数中会先调用ip_route_output_flow获取路由信息(主要包括源IP和网卡),然后调用ip_make_skb构造skb结构体,***将网卡的信息和该skb关联。
  • ip_route_output_flow: 该函数会根据路由表和目的IP,找到这个数据包应该从哪个设备发送出去,如果该socket没有绑定源IP,该函数还会根据路由表找到一个最合适的源IP给它。 如果该socket已经绑定了源IP,但根据路由表,从这个源IP对应的网卡没法到达目的地址,则该包会被丢弃,于是数据发送失败,sendto函数将返回错误。该函数***会将找到的设备和源IP塞进flowi4结构体并返回给udp_sendmsg
  • ip_make_skb: 该函数的功能是构造skb包,构造好的skb包里面已经分配了IP包头,并且初始化了部分信息(IP包头的源IP就在这里被设置进去),同时该函数会调用__ip_append_dat,如果需要分片的话,会在__ip_append_data函数中进行分片,同时还会在该函数中检查socket的send buffer是否已经用光,如果被用光的话,返回ENOBUFS
  • udp_send_skb(skb, fl4) 主要是往skb里面填充UDP的包头,同时处理checksum,然后调用IP层的相应函数。

IP层

  1.         | 
  2.          | 
  3.          ↓ 
  4.   +-------------+ 
  5.   | ip_send_skb | 
  6.   +-------------+ 
  7.          | 
  8.          | 
  9.          ↓ 
  10.  +-------------------+       +-------------------+       +---------------+ 
  11.  | __ip_local_out_sk |------>| NF_INET_LOCAL_OUT |------>| dst_output_sk | 
  12.  +-------------------+       +-------------------+       +---------------+ 
  13.                                                                  | 
  14.                                                                  | 
  15.                                                                  ↓ 
  16. +------------------+        +----------------------+       +-----------+ 
  17. | ip_finish_output |<-------| NF_INET_POST_ROUTING |<------| ip_output | 
  18. +------------------+        +----------------------+       +-----------+ 
  19.          | 
  20.          | 
  21.          ↓ 
  22.  +-------------------+      +------------------+       +----------------------+ 
  23.  | ip_finish_output2 |----->| dst_neigh_output |------>| neigh_resolve_output | 
  24.  +-------------------+      +------------------+       +----------------------+ 
  25.                                                                   | 
  26.                                                                   | 
  27.                                                                   ↓ 
  28.                                                           +----------------+ 
  29.                                                           | dev_queue_xmit | 
  30.                                                           +----------------+  
  • ip_send_skb: IP模块发送数据包的入口,该函数只是简单的调用一下后面的函数
  • __ip_local_out_sk: 设置IP报文头的长度和checksum,然后调用下面netfilter的钩子
  • NF_INET_LOCAL_OUT: netfilter的钩子,可以通过iptables来配置怎么处理该数据包,如果该数据包没被丢弃,则继续往下走
  • dst_output_sk: 该函数根据skb里面的信息,调用相应的output函数,在我们UDP IPv4这种情况下,会调用ip_output
  • ip_output: 将上面udp_sendmsg得到的网卡信息写入skb,然后调用NF_INET_POST_ROUTING的钩子
  • NF_INET_POST_ROUTING: 在这里,用户有可能配置了SNAT,从而导致该skb的路由信息发生变化
  • ip_finish_output: 这里会判断经过了上一步后,路由信息是否发生变化,如果发生变化的话,需要重新调用dst_output_sk(重新调用这个函数时,可能就不会再走到ip_output,而是走到被netfilter指定的output函数里,这里有可能是xfrm4_transport_output),否则往下走
  • ip_finish_output2: 根据目的IP到路由表里面找到下一跳(nexthop)的地址,然后调用__ipv4_neigh_lookup_noref去arp表里面找下一跳的neigh信息,没找到的话会调用__neigh_create构造一个空的neigh结构体
  • dst_neigh_output: 在该函数中,如果上一步ip_finish_output2没得到neigh信息,那么将会走到函数neigh_resolve_output中,否则直接调用neigh_hh_output,在该函数中,会将neigh信息里面的mac地址填到skb中,然后调用dev_queue_xmit发送数据包
  • neigh_resolve_output: 该函数里面会发送arp请求,得到下一跳的mac地址,然后将mac地址填到skb中并调用dev_queue_xmit

netdevice子系统

  1.                       | 
  2.                         | 
  3.                         ↓ 
  4.                  +----------------+ 
  5. +----------------| dev_queue_xmit | 
  6. |                +----------------+ 
  7. |                       | 
  8. |                       | 
  9. |                       ↓ 
  10. |              +-----------------+ 
  11. |              | Traffic Control | 
  12. |              +-----------------+ 
  13. | loopback              | 
  14. |   or                  +--------------------------------------------------------------+ 
  15. | IP tunnels            ↓                                                              | 
  16. |                       ↓                                                              | 
  17. |            +---------------------+  Failed   +----------------------+         +---------------+ 
  18. +----------->| dev_hard_start_xmit |---------->| raise NET_TX_SOFTIRQ |- - - - >| net_tx_action | 
  19.              +---------------------+           +----------------------+         +---------------+ 
  20.                         | 
  21.                         +----------------------------------+ 
  22.                         |                                  | 
  23.                         ↓                                  ↓ 
  24.                 +----------------+              +------------------------+ 
  25.                 | ndo_start_xmit |              | packet taps(AF_PACKET) | 
  26.                 +----------------+              +------------------------+  
  • dev_queue_xmit: netdevice子系统的入口函数,在该函数中,会先获取设备对应的qdisc,如果没有的话(如loopback或者IP tunnels),就直接调用dev_hard_start_xmit,否则数据包将经过Traffic Control模块进行处理
  • Traffic Control: 这里主要是进行一些过滤和优先级处理,在这里,如果队列满了的话,数据包会被丢掉,详情请参考文档,这步完成后也会走到dev_hard_start_xmit
  • dev_hard_start_xmit: 该函数中,首先是拷贝一份skb给“packet taps”,tcpdump就是从这里得到数据的,然后调用ndo_start_xmit。如果dev_hard_start_xmit返回错误的话(大部分情况可能是NETDEV_TX_BUSY),调用它的函数会把skb放到一个地方,然后抛出软中断NET_TX_SOFTIRQ,交给软中断处理程序net_tx_action稍后重试(如果是loopback或者IP tunnels的话,失败后不会有重试的逻辑)
  • ndo_start_xmit: 这是一个函数指针,会指向具体驱动发送数据的函数

Device Driver

ndo_start_xmit会绑定到具体网卡驱动的相应函数,到这步之后,就归网卡驱动管了,不同的网卡驱动有不同的处理方式,这里不做详细介绍,其大概流程如下:

  1. 将skb放入网卡自己的发送队列
  2. 通知网卡发送数据包
  3. 网卡发送完成后发送中断给CPU
  4. 收到中断后进行skb的清理工作

在网卡驱动发送数据***程中,会有一些地方需要和netdevice子系统打交道,比如网卡的队列满了,需要告诉上层不要再发了,等队列有空闲的时候,再通知上层接着发数据。

其它

  • SO_SNDBUF: 从上面的流程中可以看出来,对于UDP来说,没有一个对应send buffer存在,SO_SNDBUF只是一个限制,当这个socket分配的skb占用的内存超过这个值的时候,会返回ENOBUFS,所以说只要不出现ENOBUFS错误,把这个值调大没有意义。从sendto函数的帮助文件里面看到这样一句话:(Normally, this does not occur in Linux. Packets are just silently dropped when a device queue overflows.)。这里的device queue应该指的是Traffic Control里面的queue,说明在linux里面,默认的SO_SNDBUF值已经够queue用了,疑问的地方是,queue的长度和个数是可以配置的,如果配置太大的话,按道理应该有可能会出现ENOBUFS的情况。
  • txqueuelen: 很多地方都说这个是控制qdisc里queue的长度的,但貌似只是部分类型的qdisc用了该配置,如linux默认的pfifo_fast。
  • hardware RX: 一般网卡都有一个自己的ring queue,这个queue的大小可以通过ethtool来配置,当驱动收到发送请求时,一般是放到这个queue里面,然后通知网卡发送数据,当这个queue满的时候,会给上层调用返回NETDEV_TX_BUSY
  • packet taps(AF_PACKET): 当***次发送数据包和重试发送数据包时,都会经过这里,如果发生重试的情况的话,不确定tcpdump是否会抓到两次包,按道理应该不会,可能是我哪里没看懂

参考

责任编辑:庞桂玉 来源: segmentfault
相关推荐

2017-03-28 13:25:14

Linux网络数据包

2019-04-29 07:53:11

TCP数据包TCP网络编程

2023-03-27 00:17:21

eBPF技术网络

2023-03-27 00:13:26

数据包Kubernete网络

2013-01-28 13:32:52

路由器网络设置数据传输

2017-10-26 16:29:43

2021-10-08 10:05:10

数据包三次握手HTTP

2012-09-04 11:08:57

VMwarevSwitchvSwitch配置

2019-03-28 13:34:22

IP TCP握手

2013-05-21 14:41:42

数据包分析内联监控

2020-10-29 15:05:31

Linux网络包代码

2020-11-18 07:54:31

太网数据包架构

2021-07-15 09:57:39

Wireshark数据包长度

2017-08-22 11:30:15

LinuxWireshark过滤数据包

2013-05-24 08:56:23

VMware虚拟机数据包

2012-12-04 09:54:33

路由器数据包TCP

2013-01-21 15:11:39

路由器数据包路由技术

2019-11-12 08:46:42

网络数据包欺骗网络攻击

2017-03-15 15:21:59

2013-05-24 09:05:50

Linux虚拟机网络设置VMware网络设置
点赞
收藏

51CTO技术栈公众号