网络栈层次结构如下图:
- 应用层 由应用程序提供。它通常是一个语义层,能够理解要传输的数据。例如,超文本传输协议(HTTP)就负责传输服务器和客户机之间对 Web 内容的请求与响应
- 传输层 负责端到端的通信(一台机子内部)-TCP、UDP
- 网络层 负责管理主机之间的通信 -IP
- 链路层 对物理层访问的设备驱动程序,如网卡驱动
- 物理层 主要提供各种连接的物理设备,如各种网卡,串口卡等
Linux网络协议栈结构
- 系统调用接口层 实质是一个面向用户空间应用程序的接口调用库,向用户空间应用程序提供使用网络服务的接口。
- 协议无关的接口层,就是SOCKET层,这一层的目的是屏蔽底层的不同协议(更准确的来说主要是TCP与UDP,当然还包括RAW IP, SCTP等),以便与系统调用层之间的接口可以简单,统一。简单的说,不管我们应用层使用什么协议,都要通过系统调用接口来建立一个SOCKET,这个SOCKET其实是一个巨大的
sock
结构,它和下面一层的网络协议层联系起来,屏蔽了不同的网络协议的不同,只把数据部分呈现给应用层(通过系统调用接口来呈现)。 - 网络协议实现层,毫无疑问,这是整个协议栈的核心。这一层主要实现各种网络协议,最主要的当然是IP,ICMP,ARP,RARP,TCP,UDP等。这一层包含了很多设计的技巧与算法,相当的不错。
- 与具体设备无关的驱动接口层,这一层的目的主要是为了统一不同的接口卡的驱动程序与网络协议层的接口,它将各种不同的驱动程序的功能统一抽象为几个特殊的动作,如open,close,init等,这一层可以屏蔽底层不同的驱动程序。
- 驱动程序层,这一层的目的就很简单了,就是建立与硬件的接口层。
1 系统调用接口层
系统调用接口层实质是一个面向用户空间应用程序的接口调用库,向用户空间应用程序提供使用网络服务的接口。系统调用接口可以从两个角度进行描述:当用户进行网络调用时,通过系统调用接口多路复用到内核中。这最终作为 sys_socketcall
(./net/socket.c
)中的调用,然后进一步解复用到其预期目标的调用。
1 | SYSCALL_DEFINE3(socket, int, family, int, type, int, protocol) |
系统调用接口的另一个角度是使用正常的文件操作进行网络I/O。例如,典型的读写操作可以在网络socket(由文件描述符表示,就像普通文件)一样执行。因此,虽然存在一些特定于网络的操作(调用socket
创建socket,调用connect
将socket连接到目的地等等),但还是有一些适用于网络对象的标准文件操作,就像常规文件一样。
1 | static const struct file_operations socket_file_ops = { |
最后,系统调用接口提供了在用户空间应用程序和内核之间传输控制的手段。
2 协议无关接口层(Socket层)
socket层是协议无关接口,其提供一组通用功能,以支持各种不同的协议。socket层不仅支持典型的TCP和UDP协议,还支持原始以太网和其他传输协议,如流控制传输协议(SCTP)。
网络栈使用socket通信。Linux中的socket结构struct sock
是在include/net/sock.h
中定义的。该大型结构包含特定socket的所有必需状态,包括socket使用的特定协议以及可能在其上执行的操作。它屏蔽了不同网络协议的区别,只把数据部分呈现给应用层(通过系统调用接口)。
1 | struct sock { |
网络子系统通过定义了其功能的特殊结构(即proto
)来了解各个可用协议。每个协议维护一个名为proto
(在linux/include/net/sock.h
中找到)的结构。该结构定义了可以从socket层到传输层执行的特定socket操作(例如,如何创建socket,如何与socket建立连接,如何关闭socket等,由各自协议决定如何实现)。
1 | struct proto tcp_prot = { |
3 网络协议层
网络协议部分定义了可用的特定网络协议(如TCP,UDP等的具体实现)。这些是在linux/net/ipv4/af_inet.c
中的inet_init
函数的开头进行初始化的(因为TCP和UDP是协议inet族的一部分)。inet_init
函数调用proto_register
注册每个内置协议。proto_register
在linux/net/core/sock.c
中定义,除了将协议添加到活动协议列表之外,还可以根据需要分配一个或多个slab缓存。
1 | int proto_register(struct proto *prot, int alloc_slab) |
您可以通过linux/net/ipv4/
中的文件tcp_ipv4.c
,udp.c
和raw.c
中的proto结构来了解各自的协议。这些协议的proto结构体都按照类型和协议映射到inetsw_array
,将内部协议映射到对应的操作(which maps the built-in protocols to their operations.)。结构体inetsw_array
及其关系如图3所示。该数组中的每个协议都在初始化inetsw
时,通过在inet_init
调用inet_register_protosw
来初始化。函数inet_init
还初始化各种inet模块,如ARP,ICMP,IP模块,TCP和UDP模块。
图3. Internet协议数组的结构
Socket协议关联
回想下,当创建一个socket时,它定义了类型和协议,如 my_sock = socket( AF_INET, SOCK_STREAM, 0 )
。其中AF_INET表示基于Internet地址族,SOCK_STREAM表示其为流式socket(如上所示inetsw_array
)。
从图3可以看出, proto
结构定义了特定传输协议的方法,而proto_ops
结构定义了一般的socket方法。其他额外的协议可以通过调用inet_register_protosw
将自己加入到inetsw
协议开关机(protocol switch) 。例如,SCTP通过在linux/net/sctp/protocol.c
中调用sctp_init
来添加自己。
1 | struct proto_ops { |
补充:
prot
/prot_ops
二者有点相似,这里特意说明下:kernel的调用顺序是先inet(即prot_ops),后protocal(即prot),inet层处于socket和具体protocol之间。下面以connect为例,ops
即为prot_ops,它调用的connect是inet_listen
,然后才是具体protocol的tcp_v4_connect
。这一关系主要记录在inetsw_array
中。
1 | SYSCALL_DEFINE3(connect, int, fd, struct sockaddr __user *, uservaddr, |
socket的数据移动使用核心结构socket缓冲区(sk_buff
)来进行。一个sk_buff
包含包数据(package data),和状态数据(state data, 覆盖协议栈的多个层)。每个发送或接收的数据包都用一个sk_buff
来表示。该sk_buff
结构是在linux/include/linux/skbuff.h
中定义的,并在图4中示出。
图4. Socket缓冲区及其与其他结构的关系
如图所示,一个给定连接的多个sk_buff可以串联在一起。每个sk_buff标识了要发送数据包或从其接收数据包的设备结构(net_device *dev
)。由于每个包都表示为一个sk_buff
,数据包报头可方便地通过一组指针来寻址(th
,iph
以及mac
(MAC报头)),内核会保证这块内存是连续的。由于sk_buff
是socket数据管理的核心,因此kernel已经创建了许多支撑函数来管理它们,包括sk_buff的创建和销毁,克隆和队列管理等函数。
总的来说,内核socket缓冲器设计思路是,某一的socket的sk_buff串链接在一起,并且sk_buff包括许多信息,包括到协议头的指针,时间戳(发送或接收数据包的时间)以及与数据包相关的网络设备。
4 设备无关接口层
协议层下面是另一个无关的接口层,将协议连接到具有不同功能的各种硬件设备的驱动程序。该层提供了一组通用的功能,由较低级别的网络设备驱动程序使用,以允许它们使用较高级协议栈进行操作。
首先,设备驱动程序可以通过调用register_netdevice
/unregister_netdevice
将自己注册/去注册到内核。调用者首先填写net_device
结构,然后将其传入register_netdevice
进行注册。内核调用其init功能(如果有定义),执行许多健全检查,创建一个 sysfs条目,然后将新设备添加到设备列表(在内核中Active设备的链表)。你可以 在linux/include/linux/netdevice.h
中找到net_device
结构。各个函数在linux/net/core/dev.c
中实现。
使用dev_queue_xmit
函数将sk_buff
从协议层发送到网络设备。dev_queue_xmit
函数会将sk_buff
添加到底层网络设备驱动程序最终要传输的队列中(网络设备在net_device
或者sk_buff->dev
中定义)。dev
结构包含函数hard_start_xmit
,保存用于启动sk_buff传输的驱动程序功能的方法。
通常使用netif_rx
接收报文数据。当下级设备驱动程序接收到一个包(包含在新分配的sk_buff
)时,内核通过调用netif_rx
将sk_buff
传递给网络层。然后,netif_rx
通过调用netif_rx_schedule
将sk_buff
排队到上层协议的队列以进行进一步处理。您可以在linux/net/core/dev.c
中找到dev_queue_xmit
和netif_rx
函数。
最近,在内核中引入了一个新的应用程序接口(NAPI),以允许驱动程序与设备无关层(dev)进行交互。一些驱动程序使用NAPI,但绝大多数仍然使用较旧的帧接收接口(by a rough factor of six to one)。NAPI可以通过避免每个传入帧的中断,在高负载下得到更好的性能。
5 设备驱动程序
网络栈的底部是管理物理网络设备的设备驱动程序。该层的设备示例包括串行接口上的SLIP驱动程序或以太网设备上的以太网驱动程序。
在初始化时,设备驱动程序分配一个net_device
结构,然后用其必需的例程进行初始化。dev->hard_start_xmit
就是其中一个例程,它定义了上层如何排队sk_buff
用以传输。这个程序需要一个sk_buff
。此功能的操作取决于底层硬件,但通常将sk_buff
中的数据包移动到硬件环或队列。如设备无关层所述,帧接收使用该netif_rx
接口或符合NAPI的网络驱动程序的netif_receive_skb
。NAPI驱动程序对底层硬件的功能提出了约束。
在设备驱动程序配置其结构中的dev
接口后,调用register_netdevice
以后驱动就可以使用了。您可以在linux/drivers/net
中找到网络设备专用的驱动程序。