linux内核IMQ源码实现分析
本文档的Copyleft归wwwlkk所有,使用GPL发布,可以自由拷贝、转载,转载时请保持文档的完整性,严禁用于任何商业用途。
E-mail: wwwlkk@126.com
来源: /?business&aid=6&un=wwwlkk#7
linux2.6.35内核IMQ源码实现分析
(1)数据包截留并重新注入协议栈技术1
(2)及时处理数据包技术2
(3)IMQ设备数据包重新注入协议栈流程4
(4)IMQ截留数据包流程4
(5)IMQ在软中断中及时将数据包重新注入协议栈7
(6)结束语9
前言:IMQ用于入口流量整形和全局的流量控制,IMQ的配置是很简单的,但很少人分析过IMQ的内核实现,网络上也没有IMQ的源码分析文档,为了搞清楚IMQ的性能,稳定性,以及借鉴IMQ的技术,本文分析了IMQ的内核实现机制。
首先揭示IMQ的核心技术:
如何从协议栈中截留数据包,并能把数据包重新注入协议栈。
如何做到及时的将数据包重新注入协议栈。
实际上linux的标准内核已经解决了以上2个技术难点,第1个技术可以在NF_QUEUE机制中看到,第二个技术可以在发包软中断中看到。下面先介绍这2个技术。
(1)数据包截留并重新注入协议栈技术
okfn参数:
int ip_rcv(struct sk_buff *skb, struct net_device *dev, struct packet_type *pt, struct net_device *orig_dev){
。。。。。。。。。。。。。。。。。。
。。。。。。。。。。。。。。。。。。
return NF_HOOK(NFPROTO_IPV4, NF_INET_PRE_ROUTING, skb, dev, NULL,
ip_rcv_finish);//下一流程是进入函数ip_rcv_finish。
}
static inline int
NF_HOOK(uint8_t pf, unsigned int hook, struct sk_buff *skb,
struct net_device *in, struct net_device *out,
int (*okfn)(struct sk_buff *))//将ip_rcv_finish地址作为参数传入。
{
return NF_HOOK_THRESH(pf, hook, skb, in, out, okfn, INT_MIN);
}
static inline int
NF_HOOK_THRESH(uint8_t pf, unsigned int hook, struct sk_buff *skb,
struct net_device *in, struct net_device *out,
int (*okfn)(struct sk_buff *), int thresh)
{
int ret = nf_hook_thresh(pf, hook, skb, in, out, okfn, thresh);
if (ret == 1)
ret = okfn(skb);//根据函数地址进入之前的ip_rcv_finish函数。
return ret;
}okfn应该是下一个流程函数,不应该是本流程函数,这样做就很稳定了。
IMQ设备的做法就是使用到了这个okfn,IMQ设备发送数据包不是调用网卡驱动,而是根据okfn,将数据包发给下一个流程函数。
这里函数的概念和模块的概念是一样的,一个函数就是一个模块,一个模块处理完就将数据扔给下一个模块处理,各个模块间的数据处理是互补干扰的。从这个概念看使用okfn是很合理的。(2)及时处理数据包技术
QoS有个技术难点:将数据包入队,然后发送队列中合适的数据包,那么如何做到队列中的数据包被及时的发送出去呢?linux有一套机制来解决这个问题,下面先了解这套机制:
int dev_queue_xmit(struct sk_buff *skb)
{
。。。。。。。。。。。。。。。。。。。。。。。。。。
txq = dev_pick_tx(dev, skb);
q = rcu_dereference_bh(txq->qdisc);获得设备上的发送队列
。。。。。。。。。。。。。。。。。。。。。。。。。。
if (q->enqueue) {
rc = __dev_xmit_skb(skb, q, dev, txq);
goto out;数据包入队后,整个入队流程就结束了
}
}以上是入队过程,那么需要保证入队的数据包被及时的发送出去。
static inline int __dev_xmit_skb