用户态 tcpdump 如何实现抓到内核网络包的?

系统 Linux
按照小编的风格,不搞到最底层的原理咱是不会罢休的。所以我对相关的源码进行了深入分析。通过本文,你将彻底搞清楚了以下这几个问题。

 今天聊聊大家工作中经常用到的 tcpdump。

在网络包的发送和接收过程中,绝大部分的工作都是在内核态完成的。那么问题来了,我们常用的运行在用户态的程序 tcpdump 是那如何实现抓到内核态的包的呢?有的同学知道 tcpdump 是基于 libpcap 的,那么 libpcap 的工作原理又是啥样的呢。如果让你裸写一个抓包程序,你有没有思路?

按照小编的风格,不搞到最底层的原理咱是不会罢休的。所以我对相关的源码进行了深入分析。通过本文,你将彻底搞清楚了以下这几个问题。

  •  tcpdump 是如何工作的?
  •  netfilter 过滤的包 tcpdump 是否可以抓的到?
  •  让你自己写一个抓包程序的话该如何下手?

借助这几个问题,我们来展开今天的探索之旅!

一、网络包接收过程

在之前的文中我们详细介绍了网络包是如何从网卡到达用户进程中的。这个过程我们可以简单用如下这个图来表示。

找到 tcpdump 抓包点

我们在网络设备层的代码里找到了 tcpdump 的抓包入口。在 __netif_receive_skb_core 这个函数里会遍历 ptype_all 上的协议。还记得上文中我们提到 tcpdump 在 ptype_all 上注册了虚拟协议。这时就能执行的到了。来看函数: 

  1. //file: net/core/dev.c  
  2. static int __netif_receive_skb_core(struct sk_buff *skb, bool pfmemalloc)  
  3.  
  4.     ......  
  5.     //遍历 ptype_all (tcpdump 在这里挂了虚拟协议)  
  6.     list_for_each_entry_rcu(ptype, &ptype_all, list) {  
  7.         if (!ptype->dev || ptype->dev == skb->dev) {  
  8.             if (pt_prev) 
  9.                 ret = deliver_skb(skb, pt_prev, orig_dev);  
  10.             pt_prev = ptype 
  11.         }  
  12.     }  

在上面函数中遍历 ptype_all,并使用 deliver_skb 来调用协议中的回调函数。 

  1. //file: net/core/dev.c   
  2. static inline int deliver_skb(...)  
  3.  
  4.  return pt_prev->func(skb, skb->dev, pt_prev, orig_dev);  

对于 tcpdump 来说,就会进入 packet_rcv 了(后面我们再说为啥是进入这个函数)。这个函数在 net/packet/af_packet.c 文件中。 

  1. //file: net/packet/af_packet.c  
  2. static int packet_rcv(struct sk_buff *skb, ...)  
  3.  
  4.  __skb_queue_tail(&sk->sk_receive_queue, skb);  
  5.  ...... 

可见 packet_rcv 把收到的 skb 放到了当前 packet socket 的接收队列里了。这样后面调用 recvfrom 的时候就可以获取到所抓到的包!!

再找 netfilter 过滤点

为了解释我们开篇中提到的问题,这里我们再稍微到协议层中多看一些。在 ip_rcv 中我们找到了一个 netfilter 相关的执行逻辑。 

  1. //file: net/ipv4/ip_input.c  
  2. int ip_rcv(...)  
  3.  
  4.  ......  
  5.  return NF_HOOK(NFPROTO_IPV4, NF_INET_PRE_ROUTING, skb, dev, NULL,  
  6.          ip_rcv_finish); 

如果你用 NF_HOOK 作为关键词来搜索,还能搜到不少 netfilter 的过滤点。不过所有的过滤点都是位于 IP 协议层的。

在接收包的过程中,数据包是先经过网络设备层然后才到协议层的。

那么我们开篇中的一个问题就有了答案了。假如我们设置了 netfilter 规则,在接收包的过程中,工作在网络设备层的 tcpdump 先开始工作。还没等 netfilter 过滤,tcpdump 就抓到包了!

所以,在接收包的过程中,netfilter 过滤并不会影响 tcpdump 的抓包!

二、网络包发送过程

我们接着再来看网络包发送过程。发送过程可以汇总成简单的一张图。

找到 netfilter 过滤点

在发送的过程中,同样是在 IP 层进入各种 netfilter 规则的过滤。 

  1. //file: net/ipv4/ip_output.c    
  2. int ip_local_out(struct sk_buff *skb)  
  3.  
  4.  //执行 netfilter 过滤  
  5.  err = __ip_local_out(skb);  
  6.  
  7. int __ip_local_out(struct sk_buff *skb)  
  8.  
  9.  ......  
  10.  return nf_hook(NFPROTO_IPV4, NF_INET_LOCAL_OUT, skb, NULL,  
  11.          skb_dst(skb)->dev, dst_output);  

在这个文件中,还能看到若干处 netfilter 过滤逻辑。

找到 tcpdump 抓包点

发送过程在协议层处理完毕到达网络设备层的时候,也有 tcpdump 的抓包点。 

  1. //file: net/core/dev.c  
  2. int dev_hard_start_xmit(struct sk_buff *skb, struct net_device *dev,  
  3.    struct netdev_queue *txq)  
  4.  
  5.  ...  
  6.  if (!list_empty(&ptype_all))  
  7.   dev_queue_xmit_nit(skb, dev);  
  8.  
  9. static void dev_queue_xmit_nit(struct sk_buff *skb, struct net_device *dev)  
  10.   list_for_each_entry_rcu(ptype, &ptype_all, list) {  
  11.   if ((ptype->dev == dev || !ptype->dev) &&  
  12.       (!skb_loop_sk(ptype, skb))) {  
  13.    if (pt_prev) {  
  14.     deliver_skb(skb2, pt_prev, skb->dev);  
  15.     pt_prev = ptype 
  16.     continue;  
  17.    }  
  18.   ......  
  19.   }  
  20.  }   

在上述代码中我们看到,在 dev_queue_xmit_nit 中遍历 ptype_all 中的协议,并依次调用 deliver_skb。这就会执行到 tcpdump 挂在上面的虚拟协议。

在网络包的发送过程中,和接收过程恰好相反,是协议层先处理、网络设备层后处理。

如果 netfilter 设置了过滤规则,那么在协议层就直接过滤掉了。在下层网络设备层工作的 tcpdump 将无法再捕获到该网络包。

三、TCPDUMP 启动

前面两小节我们说到了内核收发包都通过遍历 ptype_all 来执行抓包的。那么我们现在来看看用户态的 tcpdump 是如何挂载协议到内 ptype_all 上的。

我们通过 strace 命令我们抓一下 tcpdump 命令的系统调用,显示结果中有一行 socket 系统调用。Tcpdump 秘密的源头就藏在这行对 socket 函数的调用里。 

  1. # strace tcpdump -i eth0  
  2. socket(AF_PACKET, SOCK_RAW, 768)  
  3. ...... 

socket 系统调用的第一个参数表示创建的 socket 所属的地址簇或者协议簇,取值以 AF 或者 PF 开头。在 Linux 里,支持很多种协议族,在 include/linux/socket.h 中可以找到所有的定义。这里创建的是 packet 类型的 socket。

协议族和地址族:每一种协议族都有其对应的地址族。比如 IPV4 的协议族定义叫 PF_INET,其地址族的定义是 AF_INET。它们是一一对应的,而且值也完全一样,所以经常混用。 

  1. //file: include/linux/socket.h  
  2. #define AF_UNSPEC 0  
  3. #define AF_UNIX  1 /* Unix domain sockets   */  
  4. #define AF_LOCAL 1 /* POSIX name for AF_UNIX */  
  5. #define AF_INET  2 /* Internet IP Protocol  */  
  6. #define AF_INET6 10 /* IP version 6   */  
  7. #define AF_PACKET 17 /* Packet family  */  
  8. ...... 

另外上面第三个参数 768 代表的是 ETH_P_ALL,socket.htons(ETH_P_ALL) = 768。

我们来展开看这个 packet 类型的 socket 创建的过程中都干了啥,找到 socket 创建源码。 

  1. //file: net/socket.c  
  2. SYSCALL_DEFINE3(socket, int, family, int, type, int, protocol)   
  3.  
  4.  ......  
  5.  retval = sock_create(family, type, protocol, &sock);   
  6.  
  7. int __sock_create(struct net *net, int family, int type, ...)  
  8.  
  9.  ......  
  10.  pf = rcu_dereference(net_families[family]);  
  11.  err = pf->create(net, sock, protocol, kern);  

在 __sock_create 中,从 net_families 中获取了指定协议。并调用了它的 create 方法来完成创建。

net_families 是一个数组,除了我们常用的 PF_INET( ipv4 ) 外,还支持很多种协议族。比如 PF_UNIX、PF_INET6(ipv6)、PF_PACKET等等。每一种协议族在 net_families 数组的特定位置都可以找到其 family 类型。在这个 family 类型里,成员函数 create 指向该协议族的对应创建函数。

根据上图,我们看到对于 packet 类型的 socket,pf->create 实际调用到的是 packet_create 函数。我们进入到这个函数中来一探究竟,这是理解 tcpdump 工作原理的关键! 

  1. //file: packet/af_packet.c  
  2. static int packet_create(struct net *net, struct socket *sock, int protocol,  
  3.     int kern)  
  4.  
  5.  ...  
  6.  po = pkt_sk(sk);  
  7.  po->prot_hook.func = packet_rcv 
  8.  //注册钩子  
  9.  if (proto) {  
  10.   po->prot_hook.type = proto 
  11.   register_prot_hook(sk);  
  12.  }  
  13.  
  14. static void register_prot_hook(struct sock *sk) 
  15.  
  16.  struct packet_sock *po = pkt_sk(sk);  
  17.  dev_add_pack(&po->prot_hook);  

在 packet_create 中设置回调函数为 packet_rcv,再通过 register_prot_hook => dev_add_pack 完成注册。注册完后,是在全局协议 ptype_all 链表中添加了一个虚拟的协议进来。

我们再来看下 dev_add_pack 是如何注册协议到 ptype_all 中的。回顾我们开头看到的 socket 函数调用,第三个参数 proto 传入的是 ETH_P_ALL。那 dev_add_pack 其实最后是把 hook 函数添加到了 ptype_all 里了,代码如下。 

  1. //file: net/core/dev.c  
  2. void dev_add_pack(struct packet_type *pt)  
  3.  struct list_head *head = ptype_head(pt);  
  4.  list_add_rcu(&pt->list, head);  
  5.  
  6. static inline struct list_head *ptype_head(const struct packet_type *pt)  
  7.  
  8.  if (pt->type == htons(ETH_P_ALL))  
  9.   return &ptype_all;  
  10.  else  
  11.   return &ptype_base[ntohs(pt->type) & PTYPE_HASH_MASK];  

我们整篇文章都以 ETH_P_ALL 为例,但其实有的时候也会有其它情况。在别的情况下可能会注册协议到 ptype_base 里了,而不是 ptype_all。同样, ptype_base 中的协议也会在发送和接收的过程中被执行到。

总结:tcpdump 启动的时候内部逻辑其实很简单,就是在 ptype_all 中注册了一个虚拟协议而已。

四、总结

现在我们再回头看开篇提到的几个问题。

1. tcpdump是如何工作的

用户态 tcpdump 命令是通过 socket 系统调用,在内核源码中用到的 ptype_all 中挂载了函数钩子上去。无论是在网络包接收过程中,还是在发送过程中,都会在网络设备层遍历 ptype_all 中的协议,并执行其中的回调。tcpdump 命令就是基于这个底层原理来工作的。

2. netfilter 过滤的包 tcpdump是否可以抓的到

关于这个问题,得分接收和发送过程分别来看。在网络包接收的过程中,由于 tcpdump 近水楼台先得月,所以完全可以捕获到命中 netfilter 过滤规则的包。

但是在发送的过程中,恰恰相反。网络包先经过协议层,这时候被 netfilter 过滤掉的话,底层工作的 tcpdump 还没等看见就啥也没了。

3. 让你自己写一个抓包程序的话该如何下手

如果你想自己写一段类似 tcpdump 的抓包程序的话,使用 packet socket 就可以了。我用 c 写了一段抓包,并且解析源 IP 和目的 IP 的简单 demo。

源码地址:https://github.com/yanfeizhang/coder-kung-fu/blob/main/tests/network/test04/main.c

编译一下,注意运行需要 root 权限。 

  1. # gcc -o main main.c  
  2. # ./main  

运行结果预览如下。

 

 

责任编辑:庞桂玉 来源: 良许Linux
相关推荐

2021-09-08 10:21:33

内核网络包Tcpdump

2023-03-01 23:56:11

2023-03-01 23:53:30

Linuxshutdown进程

2023-03-10 14:56:37

Linuxconnect系统

2023-10-26 11:39:54

Linux系统CPU

2021-12-20 09:53:51

用户态内核态应用程序

2023-03-28 15:51:20

2023-03-06 15:43:56

2022-03-25 12:31:49

Linux根文件内核

2021-08-31 07:54:24

TCPIP协议

2009-07-16 09:02:38

LINUX 2.4.x网络安全LINUX开发

2023-01-06 08:04:10

GPU容器虚拟化

2021-08-10 16:50:37

内核内存管理

2017-08-16 16:20:01

Linux内核态抢占用户态抢占

2023-05-12 07:27:24

Linux内核网络设备驱动

2022-07-01 08:14:28

Dubbo异步代码

2020-10-29 15:05:31

Linux网络包代码

2022-04-21 11:26:31

鸿蒙操作系统

2020-10-10 06:22:58

虚拟地址物理

2009-07-07 15:04:39

点赞
收藏

51CTO技术栈公众号