内核通信之Netlink源码分析-基础架构

NetLink是一种异步通信机制,主要用于Linux内核与用户层间的通信。它支持单播和多播,允许内核主动向用户层发送消息。NetLink通过特定协议进行数据交换,包括消息头和数据两部分。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

netlink是一种基于网络的通信机制,一般用于内核内部或者内核与用户层之间的通信。其有一个明显的特点就是异步性,通信的双方不要求同时在线,也就不用阻塞等待。NetLink按照数据包的格式发送/接收消息,提供双向通信,和其他内核与用户层通信机制相比,NetLink有其特有的优势:

  • 任何一方不需要轮训,如果通过文件传递状态信息,则需要不断的检查是否有新消息到达。
  • 系统调用和ioctl均可以从用户层向内核传递消息,但比简单的Netlink链接难于实现,另外,NetLink是系统提供的机制,不会和任何模块其冲突,兼容性好。
  • 使用NetLink可以让内核主动的向用户层发消息,此时内核扮演的就是一个逻辑用户;而ioctl和系统调用、/proc均只能由用户层发起请求,让内核去被动响应。
  • Netlink不仅支持单播,也支持多播即向多个进程发送消息。

 从逻辑上来讲,NetLink应该处于传输层,因此其同样需要特定的协议。对于NetLink就是Netlink协议,内核中有netlink_family_ops,在用户层创建netlink类型的socket的时候最终会调用到netlink_family_ops注册的create函数

static const struct net_proto_family netlink_family_ops = {
    .family = PF_NETLINK,
    .create = netlink_create,
    .owner    = THIS_MODULE,    /* for consistency 8) */
};

每种协议都需要一组协议处理函数,针对Netlink有netlink_ops

static const struct proto_ops netlink_ops = {
    .family =    PF_NETLINK,
    .owner =    THIS_MODULE,
    .release =    netlink_release,
    .bind =        netlink_bind,
    .connect =    netlink_connect,
    .socketpair =    sock_no_socketpair,
    .accept =    sock_no_accept,
    .getname =    netlink_getname,
    .poll =        netlink_poll,
    .ioctl =    sock_no_ioctl,
    .listen =    sock_no_listen,
    .shutdown =    sock_no_shutdown,
    .setsockopt =    netlink_setsockopt,
    .getsockopt =    netlink_getsockopt,
    .sendmsg =    netlink_sendmsg,
    .recvmsg =    netlink_recvmsg,
    .mmap =        netlink_mmap,
    .sendpage =    sock_no_sendpage,
};

 我们重点关注netlink_sendmsg和netlink_recvmsg,这是netlink发送和接收数据的处理函数。

地址表示

NetLink的地址表示由sockaddr_nl负责

struct sockaddr_nl {
    __kernel_sa_family_t    nl_family;    /* AF_NETLINK    */
    unsigned short    nl_pad;        /* zero        */
    __u32        nl_pid;        /* port ID    */
    __u32        nl_groups;    /* multicast groups mask */
};

nl_family制定了协议族,这里肯定是AF_NETLINK,nl_pid用以该套接字,对于内核套接字来讲,nl_pid为0,而对于用户层程序而言,该值可以为任何值,协商好并保证唯一性即可。一般取为进程id或线程ID。nl_groups用以多播,当不需要多播时,该字段为0。

NetLink消息

NetLink消息是作为套接字缓冲区sk_buff的数据部分传递的,其消息本身又分为头部和数据。头部为

struct nlmsghdr {
    __u32        nlmsg_len;    /* Length of message including header */
    __u16        nlmsg_type;    /* Message content */
    __u16        nlmsg_flags;    /* Additional flags */
    __u32        nlmsg_seq;    /* Sequence number */
    __u32        nlmsg_pid;    /* Sending process port ID */
};

nlmsg_len为消息的长度,包含该头部在内。nlmsg_pid为发送进程的端口ID,这个用户可以自定义。其余的字段暂时用不到。在用户层还用到了一个结构

struct msghdr {
    void    *    msg_name;    /* Socket name            */
    int        msg_namelen;    /* Length of name        */
    struct iovec *    msg_iov;    /* Data blocks            */
    __kernel_size_t    msg_iovlen;    /* Number of blocks        */
    void     *    msg_control;    /* Per protocol magic (eg BSD file descriptor passing) */
    __kernel_size_t    msg_controllen;    /* Length of cmsg list */
    unsigned int    msg_flags;
};

msg_name是目标socket的地址结构sockaddr_nl的地址,msg_namelen是长度。msg_iov指向一个iov向量,msg_iovlen是向量的个数。剩下的暂不考察。当用户层向内核发送消息时,该结构作为参数传递。nlmsghdr 只能描述单个消息,而msghdr描述一组消息。通过iov向量聚合所有的消息,每个消息都有其对应的nlmsghdr.逻辑结构如下:

之前提到,socket也是一种特殊的文件,通过VFS的借口同样可以对其实现管理。sokket本身就需要实现文件系统的相应接口,有自己的文件系统操作。

内核中的表示

netlink socket在内核中涉及到的结构有下:socket,sock,netlink_sock,前者是套接字通用结构,sock是套接字在网络层的体现,而sock其实是内嵌在netlink_sock结构中,后者保存有链接两端的端口ID,并包含一个函数,用于在接收数据时使用!

 

以马内利

参考资料:

《linux3.10.1源码》

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

一、imp2源码 整个源码包含三个文件:imp2_k.c, imp2_u.c和imp2.h. 其中imp2_k.c为内核模块的源代码,imp2_u.c为应用程序,即测试代码,imp2.h为两个源文件都需要引用的头文件。其整体的功能是:注册一种新的netlink协议,并注册一个新的NF hook函数。当有ping包发往当前主机或者经过当前主机转发时,内核向用户发送ping包的源IP和目的IP。各个文件的简单分析见下文。 1. imp2.h 该文件主要是定义了一种新的Netlink协议类型NL_IMP2(31)。新的协议类型的选值不能和当前内核中已经定义的netlink协议类型重复。定义了基于该协议类型的消息类型,内核根据接收到消息的不同类型,进行不同的处理:IMP2_U_PID和IMP2_CLOSE分别为请求和关闭。IMP2_K_MSG代表内核空间发送的消息。 该头文件的源码如下: 2. imp2_k.c 该程序为内核模块程序。其完成的功能如下: (1)创建一种新的Netlink协议NL_IMP2,并注册该协议的回调函数kernel_receive。但用户空间通过建立且协议类型为NL_IMP2的socket套接字并调用sendto,sendmsg函数发送数据时,传送到内核空间的数据由kernel_receive进行处理。该函数主要是记录用户进程的ID,用于随后发送数据的时候指定目的。 (2)在Netfilter的hook点NF_IP_PRE_ROUTING注册hook函数get_icmp,对经过该hook点的ping包进行处理。get_icmp首先判断是否是ping包,如果不是,直接Accept。如果是,则记录该包的源IP和目的IP,然后调用send_to_user,将记录的信息发送给kernel_recieve函数中记录的用户进程ID。 该文件的源码如下: 3. imp2_u.c 该程序为用户空间的测试程序。该程序包括以下功能: (1)生成NL_IMP2协议的socket.然后通过调用sendto发送IMP2_U_PID类型的请求信息给内核。然后等待接受内核发回的信息。记住:仅当有ping包经过内核的NF时,内核才会向用户进程发送信息。 (2)当用户进程通过Ctrl+C来结束该程序时,调用信号处理函数sig_int,向内核发送IMP2_CLOSE的消息,结束socket。 该文件的源码如下: 二、编译和测试 1. 整个源文件编译的Makefile如下: all: gcc -O2 -DMODULE -D__KERNEL__ -W -Wstrict-prototypes -Wmissing-prototypes -isystem /lib/modules/`uname -r`/build/include -c -o imp2_k.o imp2_k.c gcc imp2_u.c -o imp2_u install: insmod imp2_k.o uninstall: rmmod imp2_k clean: rm -f imp2_k.o imp2_u 2. 加载内核模块,并执行测试程序。 #make install #./imp2_u 当没有ping包时,终端一直处于等待输出状态。通过另一台主机(192.168.1.100)向当前主机(192.168.1.101)发送ping包,则终端已经有输出: #./imp2_u [root@localhost imp2]# ./imp2_u src: 192.168.1.100, dest: 192.168.1.101 src: 192.168.1.100, dest: 192.168.1.101 src: 192.168.1.100, dest: 192.168.1.101 src: 192.168.1.100, dest: 192.168.1.101
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值