流量控制范文

时间:2023-03-14 09:00:35

流量控制

流量控制范文第1篇

关键词:流量控制;队列调度; Linux;加权公平队列;随机早期检测;多平均队列加权随机早期检测

中图分类号:TP311文献标识码:A文章编号:1009-3044(2008)21-30547-03

1 序言

Linxu内核从Kernel 2.1.105开始支持QoS(服务质量),其核心机理是在网络拥塞情况下,如何对不同数据进行调度和处理,即流量控制(TC)。如若要在Linux上实现QoS,必须要确保在编译内核时选中 Kernel/User netlink socket,因为只有这样 TC才能通过 netlink 与内核通讯。并要在编译时把队列规定和分类器都编进内核。应该说在目前通用的操作系统中,Linux对流量控制的实现是做的最好的,但因为Linux系统本身的开源特性,它的队列调度策略却从v2.2起基本没有大的改进。因而本文将在对Linux的流量控制机理进行分析的基础上,对其队列调度策略进行进一步的完善。本文中的基于流的MAWRED流量控制算法为本文创新点。

2 Linux流量控制原理

在linux中,对和网络相关的源代码都放在/Net目录和/include/Net目录下。首先我们了解一下Linux网络协议栈在没有TC模块时发送数据包的大致流程。当数据包进入系统核心时输入多路复用器将判断数据包的目的地址是否是本节点。如果是,这些数据包被送入网络传输层以等待进一步的处理,如果不是这些数据包会被送入转发区,同时本地节点的更高层应用程序产生的数据包也送入转发区内,系统查找路由表并确定这些数据包的下一跳地址。然后,这些数据包被排队送入输出队列中,

当数据包进入输出队列后,每个数据包的发送都会调用dev_queue_xmit函数(net/core/dev.c),在此判断是否需要向AF_PACKET协议支持体传递数据包内容,最后直接调用网卡驱动注册的发送函数把数据包发送给网卡。因而,如果要支持QoS功能,只要在dev_queue_xmit函数调用网卡驱动发送数据包之前,先调用流量控制的相关代码即可。有关代码如下:

int dev_queue_xmit(struct sk_buff *skb)

{……………….

struct net_device *dev = skb->dev;

struct Qdisc*q;

……………….

q = dev->qdisc;

if (q->enqueue) {

int ret = q->enqueue(skb, q);

qdisc_run(dev);

return;

}

if (dev->flags&IFF_UP) {

………….

if (netdev_nit)

dev_queue_xmit_nit(skb,dev);

if (dev->hard_start_xmit(skb, dev) == 0) {

return 0;

}

}

………………

}

从上面的代码中可以看出,当q->enqueue为假的时候,就不采用TC处理,而是直接发送这个数据包。如果为真,则对这个数据包进行QoS处理。

在了解过Linux的QoS入点后,我们再对Linux QoS的功能实现代码进行分析。Linux进行流量控制的基本思路如图1所示。

由图中可以看出,linux的流量控制包含三个基本模块:filter(过滤器)、Class(类别)和Queing discipline(排队策略)。当数据包进入内核的网络发送模块,由过滤器对数据包进行标记,送入不同的类别中,相应每个类别都有一个对应的队列策略负责数据包的最终输出调度。从Linux的流量控制整体架构中,可以看出队列策略是其核心所在。

队列策略的数据结构Qdisc在include/net/pkt_sched.h中定义:,

struct Qdisc

{

struct Qdisc_head h;

int (*enqueue)(struct sk_buff *skb, struct Qdisc *dev);

struct sk_buff * (*dequeue)(struct Qdisc *dev);

unsigned flags;

struct Qdisc_ops *ops; /*Qdisc操作函数集合*/

struct Qdisc *next;

u32 handle;

atomic_t refcnt;

struct sk_buff_head q;

struct device*dev;

.....

char data[0];

};

在Qdisc中有一个指针型变量ops指向Qdisc_ops结构,在Qdisc_ops中定义了队列策略的各类动作。

最新版的Linux内核(v2.6.17)中实现了14种队列调度策略:atm、cbq、csz、dsmark、fifo、gred、hfsc、htb、netem、prio、red、sfq、tbf和teql。在net\sched目录下针对每种调度策略都有一个单独的C语言实现文件。每一个策略实现文件的结构大体相同,都是对Qdisc_ops结构中描述的队列操作函数在该策略情景下的具体实现。因而,如果要进一步改进Linux的流量调度策略,只要在net\sched目录下实现该策略的C语言实现文件,并在文件中提供Qdisc_ops中定义的接口函数即可。

3 加权公平队列(WFQ)

WFQ是一个简单、动态的排队机制,它通过给重要的通信较高的优先级,以使它得到相对的更多的带宽,保证重要通信的服务。同时也兼顾低优先级流的公平,保证低优先级流的带宽占总带宽一定的比例,不至于发生“饥俄”的情况。其示意图如图2。

WFQ 能够自动识别IP 优先权。具体地说,WFQ 能够检测到被IP 转发器标记了优先权的级别较高的数据包,并且通过为这些通信提供更快的响应时间,使这些数据包更快地传输。因此,随着优先权级别递增,WFQ 在拥塞期间给这个会话分配了更多的带宽。WFQ 为每一个数据流分配一个权重。这个权重确定了排队等候的数据包的发送顺序。在这个方案中,权重小的通信可以先得到服务。

WFQ对报文按流进行分类(相同源IP地址,目的IP地址,源端口号,目的端口号,协议号,TOS的报文属于同一个流),每一个流被分配到一个队列,该过程称为散列,采用HASH算法来自动完成,并尽量将不同的流分入不同的队列。WFQ的队列数目N可以配置。在出队的时候,WFQ按流的优先级来分配每个流应占有出口的带宽。优先级的数值越小,所得的带宽越少。 优先级的数值越大,所得的带宽越多。比如优先权字段的值为7的通信所得到的权重要小于优先权字段的值为3 的通信。这样就保证了相同优先级业务之间的公平,体现了不同优先级业务之间的权值。为了决定为每一个队列分配的带宽,可以用单个数据流的字节总数来除所有数据流的总字节数。例如:如果对应于每一种优先权等级都有一个数据流,则每一个数据流将会得到的带宽是它的优先权级别+ 1 比上这个链接的总带宽。

例如:接口中当前有8个流,它们的优先级分别为0、1、2、3、4、5、6、7。则带宽的总配额将是所有(流的优先级+1) 之和,即:1+2+3+4+5+6+7+8=36

每个流所占带宽比例为:(自己的优先级数+1)/(所有 (流的优先级+1)之和)。即,每个流可得的带宽比例分别为:1/36、2/36、3/36、4/36、5/36、6/36、7/36、8/36。

但是,如果对应于优先权级别1共有18个数据流,对应于其他的优先权级别各有一个数据流,则总数是:1+2(18)+3+4+5+6+7+8=70。优先权级别为0 的通信将会得到总带宽的1/70 ,而每一个优先权级别为1 的数据流将会得到总带宽的2/70。

又如:当前共4个流,3个流的优先级为4,1个流的优先级为5,则带宽的总配额将是:(4+1)*3+(5+1)=21 。那么,3个优先级为4的流获得的带宽比例均为5/21,优先级为5的流获得的带宽比例为6/21。

由此可见,WFQ在保证公平的基础上对不同优先级的业务体现权值,而权值依赖于IP报文头中所携带的IP优先级。 当添加或者结束数据流的时候,实际所分配的带宽会连续发生变化。因此,通过分配每一个通信所获得的带宽,WFQ 可以适应于不断变化的网络环境。

4 MAWRED算法

MAWRED(Multiple Average Weigthed Random Early Detction)多平均队列加权随机早期检测算法是RED算法的一种变体。RED算法采用滑动窗口指数加权计算平均队长Qavg,将平均队长与最小丢弃阈值Tmin和最大丢弃阈值Tmax比较。当Qavg

MAWRED对RED的改进体现在平均队列长度的计算上。RED将所有数据放在一个队列中计算Qavg,而MAWRED将流量进行分类,分别计算不同类别数据包的平均队长。在计算各类别数据包的平均队长时,高丢弃优先级的平均队长用它的队长和较低丢弃优先级的队长之和计算。即在计算较低丢弃优先级数据包的平均队长时,仅用较低丢弃优先级数据包的总队长计算;在计算较高丢弃优先级数据包的平均队长时,用较低丢弃优先级数据包和较高丢弃优先级数据包的总队长之和计算。MAWRED算法描述如下:

假设有数据包类别N1、N2、……Ns,其丢弃优先级L1

当有数据包到来,

if 数据包类别为n

计算类别n的平均队列长度Qavgn=avg( Qn+Qn-1+……+Q1 )

if Tminn=

计算类别n的丢弃概率Pn

以概率Pn丢弃到达的数据包

if Qavgn>=Tmaxn

丢弃所有达到的数据包

5 基于流的MAWRED流量控制算法

5.1 基于流的MAWRED流量控制算法思路

RED 技术对于那些对拥塞控制敏感的流(如TCP流) 有用,在TCP 流与非TCP 流混合情况下并不理想,为了提供更有效的公平保障,满足流量服务区分的需要,可将MAWRED和WFQ配合使用,这样就可以实现基于流的MAWRED。这是因为,在进行分类的时候,不同的流有自己的队列,对于流量小的流,由于其队列长度总是比较小,所以丢弃的概率将比较小。而流量大的流将会有较大的队列长度,从而丢弃较多的报文,保护了流量较小的流的利益。 即使WRED和其他的队列机制配合使用,对于流量小的流,由于其报文的个数较少,所以从统计概率来说,被丢弃的概率也会较小,也可以保护流量较小的流的利益。

基于流的MAWRED示意如图3所示:

在这种模式下,先利用WFQ可基于源和目的网络地址或者MAC地址、协议类型、源和目的端口以及帧中继数据链接标识符和服务类型等数据包报头参数动态地把通信划分成不同的数据流能力,将网络按流分类。而后利用MAWRED算法保证带宽在各个会话之间公平分享,保证数据量少的通信能够以一种及时的方式进行传输。这样以来,对于经过WFQ散列的每类队列,当出现网络拥塞时,将对每类队列采取WRED 的报文丢弃策略,在具体实现中还可由用户设定队列长度的上限和下限。当队列长度低于下限时,不丢弃报文;当队列长度在上限和下限之间时,WRED 开始随机丢弃报文(队列长度越长,丢弃的概率越高);当队列长度高于上限时,丢弃所有报文。

5.2 基于流的MAWRED流量控制算法实现

我们在具体编程时考虑数据包的收发都是在系统运行时动态进行的,因此采用堆排序技术都数据包进行处理。堆排序是堆数据结构为队列向量向量的排序提供的一种有效技术。其基本思想是首先把队列构成堆,然后将堆顶元素(队列向量的最小值)与队列向量的最后一个元素交换,同时令堆的大小减少一个。下面给出我们的基于流的MAWRED算法的实现。

1)算法实现的主要步骤

每个数据包都会按照各自的带宽速率进入输出缓冲区,每个分组都有一个调度结束时刻,将这个时刻定义为每个分组的F(i), i代表第i个分组。具体算法如下:

使用分类器给分组分类,分类依据为数据包头的上文各项参数,并建立初始堆。

在调度模块中,每次都选取每个队列的第一个分组的调度时刻,采用最小堆排序的方法对其进行选择,选取最小F (i)的分组进行调度。

重构堆。若所调度的分组所在的队列仍不为空,则向堆中插入该队列的下一个分组,直到队列为空。每次队列从空变成为非空时,都需要向堆中插入该队列的第一个分组。

2)主要函数

基于以上算法思路,给出我们的算法实现函数:

(下转第554页)

(上接第549页)

fmawred_enqueue :把包插入该Qdisc所维护的队列中,如果该Qdisc有类,则先将包分类,然后再调用该类的Qdisc的enqueue函数进行下一步的入队操作。

fmawred_dequeue:从队列中取出一个可以发出的包。

fmawred_requeue:把包重新放回原来的位置,这通常是在调用dequeue之后,包发往相应的设备时返回错误,需要把包重新放回队列中。

fmawred_drop:从队列中丢弃一个包。

fmawred_initQidc:初始化队列。

initHeap:初始化堆栈。

fmawred_reset:将Qdisc置为其初始状态,即清除所有的队列、停止所有定时器。

fmawred_destroy:删除一个Qdisc,除了描述它本身的数据结构以外,该Qdisc所有的类、过滤器均被清除。

changeMaxp:修改最大丢弃概率。

changMaxT:修改最大丢弃阈值。

changeMinT:修改最小丢弃阈值。

enHeap:数据包入堆。

deHeap:数据包出堆。

heapCounte:堆栈计数。

fmawred_dump:返回用于诊断该Qdisc的数据。

基于流的MAWRED流量控制算法可以对最大丢弃阈值、最小丢弃阈值和最大丢弃概率Maxp进行逐流的调节,避免了RED机制下类似尾丢弃的现象。通过程序还证明了基于流的MAWRED流量控制算法的调度机制能够相对公平的调度各个队列的分组。而且在我们的实际编程中,每次都选取每个队列的第一个分组的F(i)进行比较,选出最小的进行调度。由于每次只需选出最小的,并不需要排序,考虑到时间复杂度,采用最小堆的结构,用一个有64个元素(对应64个类)的数组表示。它具有较低的时间复杂度O(N10g2N),并且由于堆排序的一个重要优点是它直接在队列向量数据上构造堆,所使用的附加空间仅仅是几个简单的临时变量,因而效率很高。

6 总结

在传统的IP网络中,网络设备对所有报文都无区别的等同对待,采用先入先出的调度策略进行处理,“尽最大的努力”将报文送到目的地,但对报文传送的可靠性和传送延迟不能提供任何保证。Linux在其内核中集成进流量管理与控制的功能模块,提供很好的解决这一问题的结构,但Linux在流量管理的队列调度方面还不完善。本文提出这一新的队列调度算法很好的解决了队列调度的灵活性和高效性的两难问题,不仅能够完善Linux这方面的不足,也可应用与其它系统和网络设备中。

参考文献:

[1] 刘建峰,潘军.linux防火墙内核中Netfilter和Iptables的分析[J].微计算机信息,2006(03).

[2] 彭丹,沈苏彬.基于区分服务的服务定制系统的实现[J].南京邮电大学学报:自然科学版,2006(01).

[3] 刘晏兵. 孙世新.基于堆排序的PQ+CBWFQ路由器排队调度算法[J].计算机工程,2006(01).

[4] 丁晓波,桑楠.linux 2.6内核的内核对象机制分析[J].计算机应用,2005(01).

[5] 杨继峰.IP QoS主要体系结构及路由实现[J].河南科技,2006(3).

[6] 杨永斌.队列调度算法在网络中的应用研究[J].计算机科学,2005(7).

[7] 黄启萍,唐亮贵.流量控制与IP服务质量[J].计算机工程,2006(11).

[8] 刘辉,夏汉铸.支持区分服务的自适应队列调度算法[J].计算机应用,2005,25(4).

流量控制范文第2篇

在类似的事件当中,乘客或许有错,但不能说有罪。因为首先不严格履行契约、侵犯乘客权利的一方是民航部门。当所有文明合法的抗议手段都失灵以后,显然会开启“合理的要求得不到合理的满足,只能采取不合理手段来满足”的逻辑开关。

就目前的情况看,此类以“航线流量控制”为由,柔犯乘客权利的事件有呈常态化的趋势:从下午到晚间,期待中国民航飞机准点起飞几乎成为奢望,白纸黑字的航班起飞时间沦为参考消息,飞机的正点率已经远不如乘火车了。

如今,没有人迂腐地指望中国的机场准时放飞每一架飞机,而机场管理和飞行管制中存在的问题,也很难再被“流量控制”并因其传导的“飞机晚到”等理由所掩盖。这其中,又尤以把乘客弄上飞机再施“流量控制”最令人生厌。大机场如此,仅有几架飞机的二线机场也跟着学。

“飞机在天上才赚钱”是商业常识。飞机上不了天,使乘客损失很多时间,机场损失很多善意,航空公司损失很多利润。

中国有960万平方公里陆地领空,美国有930万,比中国少30万平方公里。中国民航现有机队总规模为1657架。而排位全球机队规模第一的美国达美航空公司就拥有744架飞机,居世界第二的美联航有712架飞机。这两家公司的总数已接近中国民航机队的总规模。美国的航空公司多如牛毛,却罕见以“流量控制”为由拖延预定的起飞时间,即其对乘客售票合同的毁约率很低。

试比较中美两国航空公司的运输效率:在2010年,北美排名第一的达美公司运送乘客1.63亿人次,亚洲排名第一的南航客运0.76亿人次,差距不明显吗?

2007年美国乘飞机旅行者为7.4亿人次,中国仅1.84亿人次,德国1.1亿人次,日本约1亿人次。中国民航的货运量为112亿吨公里,美国为406亿吨公里,德国85亿吨公里,日本84亿吨公里。美国飞机比中国客货运量多3倍以上,德国、日本比中国空域小得多,仅中国一省而已,那里的机场为什么不搞“流量控制”?

能为中国空域“流量控制”提供合法性证明的理由之一是军机训练,但人们想想就会感觉不对头。目前全世界约有5.8万架现役军用飞机,美国占24%,上万架了。就算其中有一半驻扎外国空军基地,也还有五千架需在国内空域搞训练飞行。而中国军机的总数约为3500架,假定训练飞行时间一样,美国航班为什么没有来自军方原因的“流量控制”,或者说军方不要求“流量控制”?

更惊人的数据是,美国民用飞行器的总数大约为23.2万架,其中绝大多数是私人飞机和公务机,占比高达96%。假定中国新贵的私人飞机有一千架,公务机也有一千架,加民航机队,中国飞行器的总数仍不到1万架,不及美国的1/23,为什么美国航班的正点率远高于中国,而且恬谈“流量控制”?说白了,中国空域资源浪费太厉害,民航拿约定的起飞时间不当回事,所以冠冕堂皇的“流量控制”也很厉害。

流量控制范文第3篇

1主要解决方法

未经合理分配和管理的带宽使用将造成严重的带宽资源浪费,甚至会因为滥用带宽而破坏正常网络业务应用的畅通运营。随着校园网内部的信息化程度的提高,VOIP,视频会议,OA等应用系统的部署,网内业务流量不断增加。同时,不受控的网络下载,P2P使用,以及蠕虫等都对网络有效带宽利用构成很大的冲击。不采取有效的优化控制措施,单纯增加网络带宽不能起到很好的效果,反而提高运营成本。QoS服务质量及流量控制设备部署在专网出口,网段出口,或网络的关键链路,能够提高关键数据优先级,控制无价值数据占用的带宽,对现有带宽进行合理分配和管理。可以将用户和网络上各种应用进行分类管理,为每一类用户或网络应用分配不同的带宽,并可以对非正常的带宽使用进行抑制或封堵,充分保障了正常业务应用的顺畅运营,网络的正常运转,降低运行成本,真正发挥互联网的价值。

2应用案例

某全国重点高校,目前整个校园网共有信息点8400个,三个校区70栋主要的教学楼、办公楼、实验楼、学生公寓等,形成一个以千兆以太网为主干、快速以太网为辅的跨城区大规模园区网。整个校园网现有教育网1000M、电信网500M、和铁通网100M三个出口,总带宽1600M。

位于校园网信息中心的网络环境是由100M铁通网、500M电信网和1000M教育网的三条链路构成,主干设备包括:华为85系列核心交换机,Netscreen防火墙,F5系列链路负载均衡设备。出口是用F5系列链路负载均衡设备做链路的负载均衡,分别连接教育网1000M,电信500M和铁通100M出口线路,下面连接Netscreen防火墙,再下一级连接学生宿舍区的华为85系列核心交换机和教学区的华为85系列核心交换机,该校在校学生人数约为22000多人,同时在线人数可达到6000多个信息点。该校对校园网运营提出了较高的要求,利用QoS服务质量及流量控制设备为其出口带宽进行分析与优化。

连接该校内部校园网到互联网出口的带宽目前负荷较重,基本上在不作任何控制的前提下可以跑满所有的带宽。这主要是由于近一两年来,互联网络的广泛应用导致了大量的新型应用的引入和发展。除了常规的对互联网的浏览、查询、电子邮件等多种应用类型以外,多线程的FTP下载、在线游戏、蠕虫病毒、以及DDOS攻击等多种新型的网络数据在网络中大量使用和出现。尤其是P2P应用,由于其利用大量在线的客户端设备资源而优化文件传输的能力,所以会导致网络资源的极大消耗。在无法管理控制的条件下,而严重影响正常的学校网络的运作。

3应用效果分析

这次应用主要围绕QoS服务质量及流量控制设备。通过测试和实验,验证其对上述多种应用的发现、识别及管理等功能并验证其实际性能。在管理策略设定前后,通过观察会话数的变化、相关应用流量的变化、日志流量记录对网络的应用了解的变化等,来决策此类设备在校园网带宽流量管理的必要性和意义。

此次应用,我们将QoS服务质量及流量控制设备放在网络的学生区总出口和核心设备之间的位置,设备之间全部采用光纤连接,这样QoS服务质量及流量控制设备就可以监控到网络中的流量,以便更好地进行管理。

基本的配置完成和线路接好后,就要对网络上的流量进行监测以及对应用进行归类。最初一两天主要监测该校园网中有什么样的应用流量并根据应用的类型进行策略上的划分。在对该校园网的应用流量进行两天的数据收集之后,根据实际情况对应用进行策略上的控制,例如对P2P应用协议的限制等。策略配置好之后按照预先设定好的策略检查机制观察,检验策略是否可以达到人为预期的效果。

对于各种网络应用流量能够准确的按协议进行分类和人性化图形显示,对每种协议的流量作实时的统计,利于管理员有针对性的对各种网络流量进行控制,在该校园网的网络流量中通过分析BT和PPLIVE这两种流量在高峰时的总量达到总流量的85%左右,是需要控制的对象。因此针对BT和PPLIVE的应用采取了限制,从而有效降低了BT和PPLIVE的网络应用流量,同时放大了HTTP、FTP的访问流量,满足了教学办公的要求,保障了正常的业务流量。

对于BT和PPLIVE这两种协议可以单独对其进行设定的QoS控制。同时也可以对整个P2P协议给予300M的方式来控制。也可以基于这两种协议单独控制。晚上7点至11点的高峰期,观察限制后的P2P流量始终保持稳定的300M运行,目的达到。

对于该校园网中的每个网段的IP统计,监控到每个IP的源和目的会话数,有部分IP的会话数非常大,在700至1400之间,可以断定这部分IP正处于使用P2P应用或者中病毒的状态中,所以将其会话数限制到200至400之间后,非常明显整个网络的性能得到了明显改善,网络流量也随之降了下来。

4结束语

流量控制范文第4篇

关键词:RTP/RTCP;流量控制

中图分类号:TP393文献标识码:A文章编号:1009-3044(2009)25-7075-02

Flow Control Algorithm for RTP/RTCP

LIANG Hong-bo

(Anhui Communications Technology Institute,Hefei 230051,China)

Abstract:On the base of research on RTP/RTCP, four flow control algorithm are proposed consisting: constant multiplicative increase and constant multiplicative decrease, constant additive increase and constant multiplicative decrease, variable increase and constant decrease, and variable increase and variable decrease.

Key words:RTP/RTCP; flow control

目前,视频会议、在线视频、VOIP(Voice on IP)、实时监控、实时报警等网络实时业务非常广泛,这些环境需要数据在网络上进行实时传输。随着用户的增加,带宽资源显得非常有限和十分紧张,网络拥塞时常出现。对每个用户而言,因特网是一个公平的,不限制数据发送的网络。但如果用户向因特网中发送大量的数据,而不考虑网络传输能力的话,就会导致网络拥塞,因而对用户数据流进行控制是必须的。

目前,考虑到网络实时业务的广播特性和实时的特性,一般用UDP协议作为其传输层协议。由于UDP协议缺少拥塞控制机制,当大量的实时业务进入网络时,网络可能产生严重的拥塞,给UDP增加流量控制成为当务之急[1-3]。而RTP/RTCP(Real-time Transport Protocol/ Real-time Transport Control Protocol)协议为网络实时业务提供了一种解决的方法[4-5]。

由于RTP流的速度和编码方式可以反映媒体流的质量。用户一般不希望媒体流速度变化较快,所以要合理调节发送速度,减少流的抖动,提高平稳性。

1 RTP/RTCP协议

RTP/RTCP协议是用于Internet上针对多媒体数据流的一种传输协议。RTP/RTCP协议被定义为在一对一或一对多的传输情况下工作其目的是提供时间信息和实现流同步。RTP/RTCP协议通常使用UDP来传送数据,但RTP/RTCP协议也可以在TCP或其他协议之上工作。

RTP/RTCP协议本身包括两部分:RTP数据传输协议和RTCP传输控制协议。为了可靠、高效地传送实时数据,RTP和RTCP必须配合使用。通常RTCP传输控制协议包的数量占所有传输量的5%。

RTCP传输控制协议主要用于周期的传送RTCP包,监视RTP传输的服务质量(Qos)。

1.1 RTP协议

RTP实时传输协议主要用于负载多媒体数据并通过包头时间参数的配置使其具有实时的特征。RTP协议的数据包格式[4]如图1所示。

RTP报文格式中包括固定的RTP报文头,可选用的作用标识(CSRC项)和负载数据。如果RTP所依赖的底层协议对RTP报文的格式有所要求, RTP报文的格式必须进行修改或重新定义。RTP报文中参数的意义如下:

1) extension (X,1 bit,扩展位):若设置扩展位,在固定头部后将有一个头部扩展位,这在RFC1889有详细的定义。

2) CSRC count (CC,4 bits,CSRC数):包含CSRC标示符的个数。

3) marker (M,1 bit,标记位):在数据流中标记一些重大的事情,比如帧边界。也可以定义其他的标记位。如果无标记位,可以通过改变payload type位的数目来设定标记位。

4) payload type (PT,7 bits,负载类型):定义了RTP负载的格式,由应用程序决定其含义。最初为视频和音频定义的映射集合在Internet-Draft draft-ietf-avt-profile中,后又被the Assigned Numbers RFC的后来版本中进行了扩展。RTP发送者可以在任何时候发送一个单独的RTP负载类型,PT不是专为合成单独媒体流而设置的。

5) sequence number(16 bits,序列号):每个发出数据包都有一个序列号,且是按1递增的。有时也被接受者用来检查包的丢失和修复包的顺序。序列号的初始值是随机的(不可预测的),这使得对加密的纯文本的攻击变得更加困难(即使没有加密的文本),因为数据包是通过翻译器进行传输的。

6) timestamp(32 bits,时间戳):时间戳反映了RTP包第一个字节的直接抽样。时间戳为同步不同的媒体流提供采样时间用于重新建立原始音频或视频的时序。另外它还可以帮助接收方确定数据到达时间的同步或抖动。

7) SSRC(32 bits,同步资源):帮助接收方利用发送方生成的唯一的数值来区分多个同时的数据流。必须是一个严格的随机数。在同一个RTP报文中,没有两个同步资源具有相同的SSRC标识。

8) CSRC (作用标识):CC给出了标识符的个数。如果有多于15个的贡献资源,只有15个可被标识。CSRC的标识是利用贡献资源的SSRC标识,由混频器嵌入的。

就整个RTP所提供的应用类中,就一般情况所需要的功能来说,现有的RTP数据包头是完善的。但是,为了与ALF设计协议一致,报文头部还可以通过改变、增加参数实现优化或适应特殊应用。

1.2 RTCP协议

RTCP是建立在在一个会议中需要周期地向每个参会者传输控制包,运用的是数据包的分发机制。RTCP主要支持以下四种功能[4]:

1) 提供数据传输的质量反馈。是作为RTP传输协议的一部分,与其他传输协议的流和阻塞控制有关。反馈对自适应编码控制直接起作用,但IP组播经验表明,从发送者收到反馈对诊断发送错误是致关重要的。给所有参加者发送接收反馈报告允许问题观察者估计那些问题是局部的,还是全局的。反馈功能由RTCP发送者和接收者报告执行。

2) RTCP带有称作规范名字(CNAME)的RTP源持久传输层标识。如发现冲突,或程序重新启动,既然SSRC标识可改变,接收者需要CNAME跟踪参加者。接收者也需要CNAME 与相关RTP连接中给定的几个数据流联系

3) 用于控制RTCP包数量的数量用语。前两种功能要求所有参加者发送包,因此,为了RTP扩展到大规模数量,速率必须受到控制。让每个参加者给其它参加者发送控制包,就大独立观察参加者数量。该数量用语计算包发送的速率。

4) 传送最小连接控制信息,如参加者辨识。最可能用在"松散控制"连接,那里参加者自由进入或离开,没有成员控制或参数协调,RTCP充当通往所有参加者的方便通道,但不必支持应用的所有控制通讯要求。

在IP组播场合应用RTP时,前3个功能是必须的,推荐用于所有情形。类似于RTP数据包,每个RTCP包以固定部分开始,紧接着的是可变长结构元素,但以一个32位边界结束。包含安排要求和固定部分中长度段,使RTCP包可堆叠,不需要插入任何分隔符将多个RTCP包连接起来形成一个RTCP组合包,以低层协议用单一包发送出去。RTCP包主要包含五种类型[4]:

1) SR:发送报告,当前活动发送者发送、接收统计。

2) RR:接收报告,非活动发送者接收统计。

3) SDES:源描述项,包括CNAME

4) BYE:表示结束。

5) APP:应用特定函数。

其中最主要的报文是SR和RR。通常SR报文占总RTCP包数量的25%,RR报文占75%。

由于RTCP包含了含有已发送数据包的数量、丢失数据包的数量、传输间隔等统计资料。因此,我们可以利用这些信息动态地改变传输速率,实现流量控制或拥塞控制。

2 RTP/RTCP流量控制算法

本文介绍四种常用的流量控制算法:常数乘增长和常数乘减少,常数加增长和常数乘减少,变常数增长和常数减少,变常数增长和变常数减少。

2.1 常数乘增长和常数乘减少

文献[6]采用了乘增长和乘减少的方法进行流量控制,如公式(1)。

(1)

其中,currentRate为当前的发送速率;packetLoss为丢包率,可有RTCP报文得出;threshold为阈值,可以取值为[0,0.5, 1, 1.5, 2, 2.5, 3]%;alpha为乘减少因子,一般小于1,文献[6]设alpha=0.9;beat为乘增加因子,文献[6]设beta=1.2。

该算法在一定程度上可以减少报文的拥塞,但是,当丢报率较小时,发送速度的快速增加会导致网络的拥塞,以致发送速度的快速减少,容易导致流的较大抖动,不能保证流的平稳性。

2.2 常数加增长和常数乘减少

为了保证每个流的公平性,自适应算法应该采用加增长和乘减少的策略,如公式(2)。

(2)

aI为常数加增长因子,bD为乘减少因子,一般小于1。

常数加增长和常数乘减少控制算法可以保证每个流的公平性,但是,如果常数aI和bD设定得太大,RTP流的抖动会很大,也会加剧网络的拥塞;如果设定得太小,RTP流的速度增加就会太慢或减小的太快,不利于网络带宽利用率的提高。

2.3 变常数增长和常数减少

一种平稳的、变常数增长的自适应算法,如公式(3)。

(3)

其中aI不再为常数,而是按如下的逻辑变换:

(1) 如果网络中未曾发生过拥塞,即RTP流第一次进入网络,则

aI=radd(4)

这时,RTP流按常量增长。

(2) 如果网络中发生过拥塞,则

(5)

其中R发送端到接收端之间可以利用的最大带宽,它可以是发送端的先验知识得出;Xcong为上次发生拥塞的速度。

变常数增长和常数减少的控制方法在一定程度上可以保证流的平稳性,但由于其增长函数设置不合理,使传输的带宽限制在前一次拥塞发生时的拥塞带宽之下,不能适合网络带宽动态变化的特点,不利于提高网络带宽的利用率。

2.4 变常数增长和变常数减少

一种自适应流量控制算法,如公式(6)。

(6)

其中v0为初始的发送速度,r为综合预测量,如公式(7)。

(7)

J可以直接从RTCP报文中获取,J=jitter [4],而L的计算方法如(8)式所示

(8)

其中:cumu_lostn表示从会话开始到第n个传输间隔内所丢失的RTP 包总数;highest_mum_receiven表示从会话开始到第n个传输间隔内所接收到的RTP包的最大序列号[4]。

变常数增长和变常数减少的方法综合考虑长期的网络背景和当前的网络状态,采用变常数增长和变常数减少的方法对发送速度进行自适应调整,避免网络的拥塞,在一定程度上保证了流的平稳性。

3 结论

流量控制算法在实时业务中的具有非常重要的地位,在介绍RTP/RTCP协议的基础上,详细研究了四种常用的流量控制算法,这些控制方法在一定程度上解决了RTP/RTCP中的流量控制问题,曾用于视频会议、在线视频、VOIP(Voice on IP)、实时监控、实时报警等网络实时业务。

参考文献:

[1] Kim M S,Won Y J, Hong W J. Characteristic Analysis of Internet Traffic from the Perspective of Flows [J].Computer Communications, 2006,29(10):1639-1652.

[2] Bas turk E, BirmanA. Design and Implement of a QoS Capable Switch-router. Computer Networks and ISDN Systems,1999,31(1/2):19-32.

[3] Floyd S, Jacobson V. Random Early Detection Gateways for Congestion Avoidance. IEEE/ACM Transactions on Networking,1993,1(4):397-413.

[4] Schulzrinne H,Casner S,Fredeirck R et a1.RTP:A Transport Protocol for Real-Time Applications[S].RFC 1889,1996.

[5] H.Sehulzrine.RTP Profile for Audio and Video Conferences with Minimal Control.RFC1890,IETF,1996.2-10.

流量控制范文第5篇

关键词:校园网p2p;流量控制

中图分类号:TP393.07

随着互联网络的迅速发展,各种占用大量带宽的网真视频会议、精品课程、教学资源库等数字资源不断建成投入使用;为了建设国家骨干院校校内网络节点数与用户数而不断增长。而校园网络的总出口带宽受到资金的限制无法同步增加。因网络缺乏有效监管和疏导造成网络堵塞甚至瘫痪,严重影响到教学办公。因此通过网络流量管理控制技术,针对不同的业务制定和实施相应策略是解决带宽增长与业务收益,带宽扩容与用户体验之间矛盾的关键所在。

1我校原来网络出口流量如图所示大致可以分为四大类

1.1p2p

流量依靠网络中参与者的计算能力和带宽,而不是把依赖都聚集在较少的几台提供服务器上,P2P网络通常用于通过AdHoc连接来连接节点。这类网络可以用于多种用途,在各种文件共享软件已经得到了广泛的应用,现在P2P技术也被使用在类似VoIP等实时媒体业务的数据通信中。P2P网络的一个重要的目标就是让所有的客户端都能提供资源,包括带宽,存储空间和计算能力。因此,当有节点加入且对系统请求增多,整个系统的容量也增大。点对点技术有许多应用。共享包含各种格式音频,视频,数据等的文件是非常普遍的,实时数据(如IP电话通信,Anychat音视频开发软件)也可以使用P2P技术来传送。这类流量对传输质量不是十分敏感,会创建大量的连接长时间占用大量的带宽资源不释放,是当前引起用户上网慢的主要原因。

1.2基于客户端-服务器模型的流量

在客户端-服务器模型中通信通常来往于一个中央服务器。客户端的增加意味着所有用户更慢的数据传输。此类流量对于网络传输质量比较敏感。

1.3流媒体

类似客户端-服务器模型,相对于下载后观看的网络播放形式而言,流媒体的典型特征是把连续的音频和视频信息压缩后放到网络服务器上,用户边下载边观看,而不必等待整个文件下载完毕。由于流媒体服务器流媒体技术的优越性,该技术广泛应用于视频点播、视频会议、远程教育、远程医疗和在线直播系统中。此类流量对于网络传输质量比较敏感。

1.4有害、无用流量

主要是一些网络病毒、垃圾邮件、网络攻击等网络流量。极端情况会严重影响网络的正常运行。

2流控的目标与原则:

(1)保证关键的网络应用和关键用户的带宽资源,防止某些网络应用或某些用户滥用有限的带宽资源

(2)保证网络带宽的使用率。合理分配带宽资源

(3)保证即使在网络繁忙时指定信息也能够保证指定的最小带宽。可以使这类应用法出请求。保障带宽即使在网络繁忙时也可以保障指定信息流的带宽资源。当空闲时,其他类型信息流可以使用这部门带宽资源。控制所有用户所能使用的最大带宽资源。

3流控策略

流控设备架设在出口路由器与中心交换机之间。保证用户访问外部网络资源时才激发流控策略。访问校内服务器无限制。根据各类用户使用网络的特点,分配带宽资源。如:工作日上班时间就必须保证办公教学实验的带宽资源;限制学生宿舍,教师家园的带宽占用率。晚上12点以后就可以适当放宽对P2P带宽的限制。先保证关键网络应用,1httpFTP服务器是学校对外的窗口,必须保证外部可以正常访问。但校外用户访问WEB服务器占用的上行流量>下行流量,所以只需保证外部发送请求时的下行带宽即可。限制总出口下行流量中,HTTP协议流量保障流量大于总流量的70%,P2P流量分时段限制工作日工作时间限制为20%,下班到晚上12点限制40%晚上12点到第二天上班时间限制为80%。工作时间各个用户的各类流量的最小带宽、保障带宽和最大带宽如表1所示

表1工作时间各类用户带宽分配策略表

p2p流量 http协议流量 ftp、流媒体流量 总带宽

办公用户 限制最大带宽1.5M 保证最小双向带宽100K,保障带宽2M 限制最大带宽1.5M 下行2兆上行1M

教师家园用户 限制最大带宽1.5M 保证最小双向带宽200K,保障带宽2M 限制最大带宽1.5M 下行4兆上行2M

学生用户 限制最大带宽1.5M 保证最小双向带宽200K,保障带宽2M 限制最大带宽1.5M 下行2兆上行1M

多媒体、实验室 限制最大带宽1.5M 保证最小双向带宽200K,保障带宽2M 限制最大带宽1.5M 下行4兆上行1M

服务器 下行10兆上行50兆, 下行10兆上行100M

总出口带宽 小于40% 大于50% 小于30%

4小结和建议

通过上面的策略配置解决了网络中P2P流量和一些服务的带宽分配,在有限的带宽资源下,基本满足了师生的网络需求,保证了正常的教学科研办公等网络应用。校园网管理者还可利用校园网的速度快的特点,建立更多丰富的资源网站,比如影视中心和软件资源网,引导用户在内网进行视频点播和软件下载,减少不必要的外网流量,将流量留在内部,缓解用户对出口造成的网络压力。使网络管理者不再陷入频繁升级的怪圈。

参考文献:

[1]林志兴.校园网络流量控制分析与实施[J].三明学院学报,2009,12.

[2]周中伟.校园网络流量控制的应用研究[J].湖南工业职业技术学院学报,2009,10.

[3]王能辉.校园网多ISP接入及优化方案[J].科技信息,2009,27.

[4]胡俊,程瑾.网络流量管理控制技术在校园网的应用研究[J].中国教育信息化,2009,21.

[5]汪涛.面向高校网络流量控制的策略研究[J].南京工业职业技术学院学报,2009,6.

流量控制范文第6篇

设计并实现了一个克隆Tracker以减少互联网中BitTorrent (BT)流量占用过多进出口带宽的问题。当BT客户端向Tracker发出列表请求时,Peers列表请求数据包被路由到克隆Tracker。克隆Tracker使用不同于原Tracker的列表选择算法,代替原Tracker向BT客户端返回Peers列表。克隆Tracker从原Tracker中获得并更新列表。在校园网的实地测试结果表明:在不修改BT客户端和原Tracker服务器的条件下,克隆Tracker能够有效控制所测网段BT流量占用的进出口带宽。

ス丶词:

克隆Tracker; BitTorrent流量控制;列表选择算法; P2P流量本地化

ブ型挤掷嗪牛 TP393.07

文献标志码:A

英文标题

Scheme of BitTorrent traffic control

び⑽淖髡呙

TANG Hong, ZHANG Yunlong

び⑽牡刂(College of Computer Science and Technology, Chongqing University of Posts and Telecommunications ,Chongqing 400065, China英文摘要)

Abstract:

In order to solve the problem that BitTorrent (BT) traffic occupies too much import and export bandwidth, a cloned tracker was designed and implemented. In this method, the cloned tracker employed list selection algorithm different from original tracker to return the list, when the BT client sent its list request to tracker. Cloned tracker used list requestion algorithm which was different from original tracker, and returned Peers list instead of original tracker. Cloned tracker fetched and updated the list from original tracker. Finally, on the condition of unmodified BT client and original tracker server, the cloned tracker could efficiently control the import and export bandwidth occupied by BitTorrent traffic in the real network environment.

英文关键词

Key words:

cloned tracker; BitTorrent (BT) traffic control; list selection algorithm; P2P traffic locality

0 引言

近年来,点对点(PeertoPeer, P2P)技术的广泛使用造成网络上流量发生了很大的变化,德国互联网机构Ipoque对互联网流量的分析报告[1]指出P2P已经统治了当今的互联网,42%~69%的总流量都来自于P2P应用,而比特流(BitTorrent, BT)文件共享系统产生的流量约占整个P2P流量的49%~83%。

BT等P2P文件共享系统的应用给用户带来很大的方便,但是给运营商带来了很大的负担。其原因主要由于参与下载的每个节点既是客户端,又是服务器,双向高速率的传输会消耗过多的进出口带宽,造成网络拥塞、用户服务性能下降[2]。运营商为此不得不扩容骨干网路由器、传输骨干网间带宽,但升级的同时却不能够额外盈利。因此,运营商采用封杀BT端口、限制BT软件和提高用户带宽支付费用[3]等方式试图缓和矛盾,但该类方法是以牺牲用户利益为代价的,不利于长期执行。文献[4-5]提出使用Cache方法,该方法在网络边界上布置缓存设备,当缓存设备上存在某个文件时,用户即可从该缓存设备上直接得到,而不需要和其他网络中的用户进行数据交换。该方法虽然可以减少P2P进出口带宽,但需要额外的存储设备,并且投资较大。文献[6]提出一种P4P架构来缓解运营商和用户之间的矛盾,由于改变了以往的P2P系统架构,在现实网络中要投入使用还需要很长时间。文献[7]提出客户端可以利用CDN网络提供的信息来让客户端选择相邻节点,该方法的实施需要修改原有客户端软件和原有协议。文献[8]针对BT文件共享系统提出可以让Peer选择大多数的和该Peer处于同一ISP的Peer,从而达到减少P2P进出口带宽的目的,但是需要修改BT协议和BT客户端、Tracker服务器软件。

BT客户端下载文件时,首先要与Tracker通信获得Peers列表(虽然目前BT协议中支持无Tracker的网络,但其效率比较低)。Tracker随机选择Peers作为Peers列表返回给BT客户端。BT客户端从Tracker获得Peers列表后,与Peers相互连接、传输数据。由于BT客户端在选择Peers传输数据时不考虑列表中Peers的位置,很多处于不同互联网服务提供商(Internet Service Provider, ISP)、自治域网段的Peers相互通信、传输数据造成BT流量占用了大量进出口带宽。

本文提出了一种添加克隆Tracker代替原有Tracker返回Peers列表的方法,将BT流量尽可能控制在本地,有效地降低了BT流量占用的进出口带宽;同时,不需要修改BT客户端、Tracker服务器和BT协议,容易实现。

1 BT流量控制方案

通过限定Tracker返回给BT客户端的Peers列表,可以间接帮助BT客户端优先选择和它处于同一ISP(或者AS域)的Peers,从而减少BT流量占用的进出口带宽。在不修改BT客户端和原有Tracker服务器的前提下,设计并实现了一个克隆Tracker,用来代替原Tracker返回Peers列表。与原Tracker不同,克隆Tracker在返回列表时候会优先选择和BT客户端处于同一网段的Peers,并限制处于不同网段的Peers个数。理论上在原Tracker或者原BT客户端上直接修改Peer选择算法相对于增加克隆Tracker会减少额外的开支,但由于BT协议是公开的协议,目前存在的BT客户端软件和服务器软件比较多,用户是否使用修改过列表选择算法的BT客户端取决于用户的意愿,对于想要进行流量控制的第三方来说实现起来相对困难。

克隆Tracker被布置在被控制网段的流量出入口处。在识别出BT客户端和Tracker之间的通信数据包后,获取原Tracker的IP地址,然后根据Tracker的IP地址动态修改路由表,将网段内部BT客户端向原Tracker发送的列表请求信息路由到克隆Tracker,由克隆Tracker代替原Tracker向BT客户端返回Peers列表。克隆Tracker定期从原Tracker中获取Peers列表,更新自己的Peers列表。

正常情况下,克隆Tracker是不会响应BT客户端发来的列表请求信息,克隆Tracker采用构造数据包的方法来返回列表信息。同时与原Tracker不同,克隆Tracker在返回列表时,不再使用随机列表选择算法,而是选取和请求者处于同一ISP、自治域网段的Peers作为Peers列表的一部分,并限定列表中和该Peer处于不同ISP、自治域网段的Peers个数。

图1是克隆Tracker存在和不存在条件下网段1内BT客户端获取Peers列表的全过程。在不设置路由的情况下,网段1中的BT客户端(PeerA和PeerB)会向网段2中的原始TrackerB发送请求,获取Peers列表,TrackerB从缓存列表中随机选取多个Peers作为Peers列表返回给网段1中BT客户端。当克隆Tracker存在时,通过修改路由信息,网段1中的BT客户端列表请求数据包被路由到克隆Tracker,由克隆Tracker返回Peers列表,而克隆Tracker从Tracker B获得、更新列表。

图片

图1 BT客户端请求列表过程

2 系统构成

2.1 系统功能模块

克隆Tracker需要与BT客户端进行的通信返回Peers列表,同时也要和Tracker通信获取、更新列表,因此系统包含以下功能模块。

1)Peer通信功能模块。该模块主要响应BT客户端的列表请求,返回Peer列表,同时获得需要下载共享文件的哈希值和Tracker的IP地址。

2)Tracker通信功能模块。克隆Tracker和Tracker通信的目的是获取Peers列表、定期更新Peers列表。

3)控制模块。该模块的功能主要是控制其他两个模块的开启和关闭。控制模块中还可以调整Peers列表中外部Peers的个数。

为了能够实时响应BT客户端的Peers列表请求,Peer通信模块被置于内核空间子系统;Tracker通信模块和控制模块位于用户空间子系统,如图2所示,用户空间和内核空间通过系统调用进行信息交换。

图片

图2 系统结构

2.2 系统关键技术

2.2.1 BT客户端与服务器通信识别

1)识别目的。识别BT客户端与服务器通信有以下两个目的:①获得Tracker的IP地址。Tracker的IP地址一般情况下不会改变,因此可以通过改变路由的方式将网段内所有发往Tracker的列表请求路由到克隆Tracker,同时克隆Tracker也需要Tracker的IP地址来请求、更新Peers列表。②获取共享文件哈希值。BT客户端解析下载的torrent文件,得到下载文件的哈希值,通过向Tracker发送列表请求来得到Peers列表。克隆Tracker不可能获得所有torrent文件并解析出文件的哈希值。当BT客户端的列表请求信息被路由到克隆Tracker时,克隆Tracker从请求数据包中提取出文件哈希值,然后根据Tracker的IP地址请求该共享文件的Pees列表。

2)识别方法。BT客户端与Tracker服务器间通信使用HTTP协议,请求数据包中的数据字段部分包含BT协议规定的关键字段如info_hash、peer_id等,因此可以通过关键字匹配的方式获取Tracker的地址。图3是使用Wireshark抓取到的BT客户端向Tracker请求列表的数据包中数据区域的内容,可以通过匹配数据包中的“GET/ announce?info_hash”字段来识别请求列表的数据包。

图片

图3 BT客户端请求列表数据包

2.2.2 数据包构造

克隆Tracker使用构造数据包的方法与BT客户端进行通信。BT客户端和Tracker服务器使用HTTP协议,通信过程中共包含9个数据包,如图4所示。其中SYN、SYN&ACK和ACK主要用于建立TCP连接,最后两组FIN&ACK、ACK是断开TCP连接,中间一组PSH&ACK为BT客户端请求列表数据包和Tracker返回列表数据包。

当BT客户端的请求列表信息被路由到克隆Tracker时,克隆Tracker要处理来自BT客户端的SYN、PSH&ACK、PSH&ACK和FIN&ACK共4种类型的数据包。克隆Tracker使用下列方式处理BT客户端发来的请求:①如果收到数据包类型为SYN,克隆Tracker构造SYN&ACK数据包,建立TCP连接。②当收到PSH&ACK数据包后,克隆Tracker构造PSH&ACK数据包返回列表。③当收到FIN,ACK后,克隆Tracker构造ACK数据包来进行应答。④当收到ACK后,克隆Tracker不做处理。

图片

图4 Peer、Tracker之间通信数据包

2.2.3 列表选择算法

列表选择算法是流量控制的关键。克隆Tracker中的缓存列表被分为两个部分――内部Peers列表和外部Peers列表。内部Peers列表中的Peers属于某个受控的某个ISP所处的网段或者某个自治域;外部Peers列表中Peers则由所有不属于内部Peers的Peers组成。

列表中的Peers划分越细,越能有效地控制BT流量占用的带宽。文献[9]使用聚类方法对IP地址进行划分,可以准确地将物理上IP地址相邻或者相近的分为一类。基于前面方法的思想,手工输入ISP、自治域网段信息作为克隆Tracker中Peer列表分类的阈值,将Peer列表中的每个IP所处的网段和输入的网段异或计算相邻值(DValue)。如果Dvalue =0说明该IP属于内部网段,存入内部列表中;否则存入外部列表中。计算相邻值(DValue)公式如下:オ

DValue=MIN(((Ip & NetMask)Net)>>HostNumber)(1)

其中:Ip为列表中每个Peer的IP,NetMask为所输入网段的子网掩码,Net为输入网段的网络地址,HostNumber为IP地址中的主机地址所占的位数。由于输入的ISP网段或自治域网段可能有多个,因此可以通过选取最小的值获得DValue值。オ

当BT客户端列表请求到达时,克隆Tracker首先随机选择多个内部Peers作为返回列表的一部分,同时为了保证系统中所有BT客户端都可以完成下载,克隆Tracker每次选择最多MВíMУ闹悼梢允侄控制)个外部Peers作为列表的另一部分。在最坏情况下每个客户端保持MЦ鐾獠苛唇樱限制了外部链接的数量,从而减少了跨ISP、自治域之间的数据传输,最终达到减少P2P占用大量进出口带宽的目的。

2.2.4 列表存储结构

克隆Tracker使用哈希桶存储共享文件的Peers列表信息,并使用Tracker的IP地址和文件的哈希值作为哈希桶中列表信息的索引。当BT客户端向某个Tracker发送列表请求的时,通过哈希算法可以快速地定位到共享文件的Peers列表,时间复杂度为O(1)。每条列表信息包含拥有相同共享文件资源的Peer信息(IP地址+端口号)。文件的哈希值用32位的4字节表示,单个Peer的信息(IP端口号)使用6个字节表示。内存消耗的计算公式为:内存消耗=每个Peer的信息×Peer信息个数×共享文件个数。因此存储10万多条共享文件的Peers列表仅需要128@MB。

当网络的规模增大时,克隆Tracker会由于内存的限制而无法满足大量用户请求列表的需求,但由于Tracker的功能是提供列表的信息,加上Internet中总的Tracker的数量有限,在硬件瓶颈出现的情况下,可以只修改热门Tracker的路由信息,存储热门Tracker上的共享文件列表。假设热门Tracker的个数为10,每个Tracker都含有重复的共享文件Peers列表信息,最差情况下128@MB容量的内存也可以存储1万多条的共享文件信息,相对于文件Cache系统要节约很多硬件资源。

2.3 系统处理流程

克隆Tracker中系统处理过程按如下步骤进行。

1)当控制模块中的开关开启时,流经网卡的数据包会被送到Peer通信子模块。

2)判断BT客户端数据包的类型,如果为TCP的4次握手或者是3次挥手,则构造TCP握手、挥手数据包来保持或断开连接;如果为列表请求数据包,则根据列表选择算法返回列表,并存储TrackerIP地址和共享文件的哈希值,用于克隆Tracker向原始Tracker请求Peers列表。

3)克隆Tracker通信模块根据2)中得到的共享文件哈希值和TrackerIP地址,周期性地向外部Tracker发送列表请求信息。

4)克隆Tracker从原Tracker中获取列表后,将Peers列表被分为两部分,分别填充到内部Peers列表和外部Peers列表中。

5)定期更新列表,并清空Peers列表为0的文件信息,节省内存开销。

3 实测结果

为了验证系统的可行性,以校园网内某栋楼作为实验环境。在该楼的流量出入口处设置了策略路由(即从该楼发出的BT列表请求将路由到克隆Tracker),其中该楼内存在17个子网网段,克隆Tracker被部署在实验楼出换机处,实验拓扑如图5所示,分别对进出口流量和BT客户端的两个影响指标进行评估。

图片

图5 实验环境拓扑

3.1 流量状况

根据在校园网测量的流量分布情况,BT流量占到总流量的80%以上。通过查看总流量的变化,可以得出克隆Tracker对BT流量的控制效果。图6是5日内该楼内流入、流出和总流量变化图。其中前两天没有进行BT流量控制,后两天进行了控制。从图中可以看出,在克隆Tracker控制下,与没有克隆Tracker控制相比,网络进出口流量明显减少。其主要原因是克隆Tracker返回列表时,优先返回和BT客户端处于同一网段内部的Peers,大量的BT流量都被限制在网段内部,达到节省进出口带宽的目的。

图片

图6 5日流量变化

3.2 对BT客户端的影响

使用单个比特精灵客户端在无克隆Tracker(图7)和有克隆Tracker(图8)条件下,下载同一个共享文件,以此来查看克隆Tracker对客户端的影响。同时使用Sniffer[10]提供的流量查看功能,通过端口镜像查看单个客户端所在交换机上的BT进出口流量的带宽占用情况,其中灰色部分为每秒字节数,黑色部分为每秒包个数。

图片

图7 有克隆Tracker下载一个文件

图片

图8 无克隆Tracker下载一个文件

从图7~8中可以看出,当克隆Tracker功能开启时,BT客户端的下载时间明显比不使用克隆Tracker的下载时间长,同时P2P占用进出口带宽始终在1@Mbps以下。不使用克隆Tracker时,虽然会缩短下载时间,但进出口带宽占用较大。

实验过程中,使用克隆Tracker使得局域网情况下的下载时间变长,主要原因是由于网段中的一些内部Peers会因为得不到所需的一些片段(BT下载中将单个文件分成多个片段进行下载)而出现饥饿情况,这时必须等到某个外部节点从外部节点中下载完某些Peer后,内部的节点才能够完成后续的下载,从而导致下载时间变长。但是如果所需下载片段在网络中分布均匀的情况下,理想条件下由于处于同一网段的Peers的延迟较小、距离较近,会更有利于节点的下载。尽管使用克隆Tracker会延长用户的下载时间,但从应用角度来看,与其他封杀BT的方法相比,使用该方法可以保证用户正常完成下载,并降低了BT对网络上其他应用的影响,因此,在带宽紧张时,仍具有一定的实用价值。

4 结语

本文设计并实现了一种基于克隆Tracker的BT流量控制方案,克隆Tracker代替原Tracker向BT客户端发送列表。在选择列表时,克隆Tracker优先选择和请求者处于同一ISP、自治域的Peers,并限定外部Peers的数量。在校园网内的实测表明,该方法能有效减少BT流量占用进出口带宽,同时也不需要修改现有的BT系统结构和协议。虽然目前的实验在校园网下使用单个克隆Tracker已经可以有效达到节省带宽的目的,但是如何在外网中部署克隆Tracker和分析克隆Tracker的性能及实际应用成本将是下一步的任务和目标。

げ慰嘉南:

[1]

SHULZE H, MOCHALSKI K. Internet study 2008/2009[EB/OL]. [2010-06-25]. /study/ipoqueInternetStudy0809.pdf.

[2]

赵金生.P2P业务对我国互联网业务的发展影响[J].电信网技术, 2006(2): 71-73.

[3]

PeerApp white paper: Comparing P2P solutions[EB/OL].[2010-06-25]. /.

[4]

SALEH O, HEFEEDA M. Modeling and caching of peertopeer traffic[C]// Proceedings of the 2006 14th IEEE International Conference on Network Protocols. Washington, DC: IEEE Computer Society, 2006: 249-258.

[5]

YE MINJIANG, WU JIANPING, XU KE. Cashing the P2P traffic in ISP network[C]// IEEE International Congerence on Communications. Washington, DC: IEEE Computer Society, 2008: 5876-5880.

[6]

XIE H Y, RICHARD Y, KRISHNAMURTHY A, et al. P4P: Provider portal for applications[C]// Proceedings of the ACM SIGCOMM 2008 Conference on Data Communication. New York: ACM, 2008: 351-362.

[7]

CHOFFNES D R, BUSTAMANTE F E. Taming the torrent: A practical approach to reducing crossISP traffic in peertopeer systems[J]. ACM SIGCOMM Computer Communication Review, 2008, 38(4): 363-374.

[8]

BINDAL R, CAO P, CHAN W, et al. Improving traffic locality in BitTorrent via biased neighbor selection[C]// IEEE International Conference on Distributed Computing Systems. Washington, DC: IEEE Computer Society, 2006: 1063-6927.

[9]

楼若岩,许晓东,朱士瑞.面向校园网的IP地址逐步优化层次聚类算法[J].计算机应用, 2007, 27(8): 1862-1864.

[10]

流量控制范文第7篇

关键词:流量控制;航班延误;航班优先级

随着中国民航事业的快速发展,民航运输业一直保持较高的增长率。2012年中国民航全行业完成运输总周转量611亿吨公里、旅客运输量3.2亿人、货邮运输量546万吨。分别比上年增长25.6%、15.8%和25.1%。据预测,到2020 年,我国航空运输总量将位于世界前三。这必将对空中交通飞行流量的管理等各方面提出了更高的要求,对空中交通流量进行合理有序的管理是民航健康发展的基础。如何在日益增长的飞行流量下,保障航班安全,提高航班正点率,加快航班流量是中国民航各个行业对空管提出的新要求。

一、现阶段存在的问题

面对各方的期望,民航空管行业也在不断的进步,但是仍存在一些问题没有解决,包括有以下几点:

1、航班流量不均衡

当前,虽然各地新建了许多新的机场,但是旅客吞吐量的95%集中在前四十几个主要机场,主要集中在省会城市,直辖市和旅游热点城市。航班量排名前五大机场都集中在北上广,如此集中的航班量极易发生当几大机场其中的某一个由于天气或其他特殊情况造成航班延误时,导致全国范围内的大面积航班延误。

2、空中交通拥挤

由于航班流量的不均匀,导致飞机分布相对集中,京广航路等一些飞行量较多的航路上出现大面积拥挤情况;而随着航班架次的增加,未来空中的航路航线必然会发生越来越严重的拥挤。

3、空域资源不足

由于中国的国情所决定,中国的空域是由空军所管辖,国家航空器由空军指挥,民用航空器及外国航空器由民航指挥。虽经一系列改革,但民航所能使用的空域仍然很有限,在规定的航路航线以外的空域受军方的限制,使得民航空域资源相当缺乏。特别是在恶劣天气发生时,可用空域更加有限,对航班流量的影响更大。

由于以上原因所产生的航班延误和返航备降,会导致的航空器造成燃油的浪费,降低了航空公司的效益。因此,如何在现有条件下,加速空中流量,减少航班延误成为空管面对的新课题。随着中国民航的持续发展,航班量的不断增长,空中交通流量管理的重要性更加突出,空中交通流量管理研究的重要性和紧迫性也将越来越明显。

二、空中交通流量管理的基本方法

空中交通流量管理是保障飞行行安全的重要环节,空中交通流量管理就是对现有机场、空域、航路进行准确评估后采用的管理方式,通过合理地放行航空器在保障安全的基础上加速空中流量,减少空中拥堵,空中交通流量管理针对这些矛盾提出了一些解决方法。

1、先期流量管理

先期流量管理是指在实施飞行计划前的几个月至前一天前进行计划的调整,在安排班期时刻表时对计划和非计划航班的进行合理的安排,防止在某一空域内或者某一机场中出现超负荷流量,影响航班安全运行。先期管理通过统一安排各航空公司的时刻表,合理调配不同的时间段内各个机场的航班流量,避免发生拥堵的现象。

2、飞行前流量管理

飞行前流量管理是在航空器起飞前,通过流量管理调整起飞时间,改变飞行航路。飞行前流量管理主要是采用地面等待的方式,改变航空器的开车时间,改变航空器飞行航路等方法,疏导拥挤的航路,维持正常飞行秩序。

3、实时流量管理

实时流量管理是在航空器飞行过程中管制员按照规定的管制间隔进行调配的手段。主要是通过对飞行中的航空器进行引导、调速、盘旋等待、改航等方法,控制某一区域内的飞行流量在可控的范围内。

三、通过设定航班优先级解决航班延误

实施空中交通管理的最终是在保障安全的前提下加快飞行流量,而解决日益突出航班延误问题也是当前空中交通流量管理所需要面对的最大问题。当机场和航路容量受恶劣天气或者流量控制等因素影响,而导致航班延误时。怎样合理安排航班放飞,是一个需要解决的问题,我们通过设定航班优先级来安排航班的放行顺序,以使有限的空域资源发挥最大的效用。

1、时间优先级

时间优先级是指指根据航班时刻预计起飞时间早的航班比预定起飞时间晚的航班具有优先权。由于不同航空公司在航班时刻的安排上会有竞争,这样设定优先级,会保证相对的公平,先来先服务,不能仅凭飞行的目的地远近或者飞机的机型来决定由哪家航空公司来承担延误损失,航班时刻表是各航空公司、空管和其他相关部门之间利益平衡的结果。

2、机型优先级

机型优先级是指如果按航班时刻两架飞机起飞时间几乎相同的情况下,地面等待成本高和空中飞行成本高的机型比地面等待成本低和空中飞行成本低的机型应优先安排起飞。机型优先级是根据机型的成本率来排列的,所谓"机型成本率"涉及到两项重要机型性能:机型的最大业载和机型空中飞行平均耗油率。前者是估计该机型做单位时间的地面等待所产生的费用(即地面等待成本)的重要因素。后者是估计该机型做单位时间的空中飞行所产生的费用(即空中飞行成本)的重要因素。

3、延误优先级

延误航班是指在航班时刻表预定的起飞时间15分钟以后还未能起飞的航班。延误航班的优先级是最低的,只有把正点起飞的飞机安排完以后才来考虑它。例如一架飞机预定1200起飞,由于某种原因产生了延误,到了1215还未能起飞,那么该航班便产生了延误。此后,在某个时刻导致该航班延误的原因取消,该飞机能够起飞,但是也要安排在预定在时刻以前起飞的飞机全部起飞后再来考虑它。同时,在所有延误航班内部仍然按照时间优先级和机型优先级顺序来确定各航班的优先级。

但这样也会导致当一架航班产生延误后,它的优先级就降为最低,从而出现严重延误,对该航班其后的续航班也相应出现严重延误,将会对整体航班的运行产生严重的影响。所以在采用优先级方法时,也要考虑采取一定的方法来减少延误时间。通过逐渐提高做延误航班的优先级,将其参与到正点航班的优先级排序中去,以避免出现航班严重延误的情况。

优先级排列的原理是让地面等待成本高的飞机先于地面等待成本低的飞机起飞,这样更具经济效益;让飞行速度快、飞行高度高的飞机先起飞可以避免飞行冲突;让耗油率高的飞机尽量少等待。但是应该注意的是,在安排航空器放行时不能完全只考虑整体利益而严重损害航空公司、空管部门和其他相关部门的个体利益。因此组织放飞时仍需要按照航班时刻表的基本方案,毕竟航班时刻表是各航空公司、空管单位和其他相关部门之间利益平衡的结果,这样采取的流量管理方案才会被各方面所接受。因此,正常航班的优先级要高于产生延误的航班的优先级,延误航班的优先级将随着地面等待时间的增长而提高,避免发生严重延误的情况,但其优先级将始终低于该时段范围内的正常航班。

目前,就我国空中交通流量管理的实际工作而言,仅在几大区管中心设有流量管理席位,相关的管理方法政策等也处于初步研究状态,与发达国家相比存在很大的差距。本文所做的有关这方面的探讨工作,应该说具有一定的积极意义,提供了一种新的思路,相信在不久的将来,我国的空中交通流量控制工作将会得到长足的进步。

流量控制范文第8篇

【关键词】微流量系统 微泵 微沟道 扩散/收缩管

一、绪论

(一)MEMS

微电子机械系统 MEMS是Micro Electro Mechanical Systems的缩写,它是以微电子、微机械及材料科学为基础,研究、设计、制造可批量生产、集电子元件与机械器件于一体的微小系统。完整的MEMS是由微传感器、微执行器、信号处理和控制电路、通讯电路和电源部件组成的一体化微系统,其目标是把信息的获取和执行集成在一起,组成具有多功能的微型系统,MEMS的制作主要基于两大技术:IC技术(Integrate Circuit)和微机械加工技术(Micromaching),其中IC技术即为普通集成电路制造技术,而微机械加工技术是为微传感器、微执行器和微电子机械系统制造微机械部件和结构的关键加工技术,它是在IC工艺上发展起来的,主要包括体微机械加工技术、表面微机械加工技术、LIGA技术(利用X光深层曝光、电铸、机械加工)、准LIGA技术(改进的LIGA技术,采用传统深紫外线曝光、厚光刻胶作掩膜和电铸技术,与IC工艺兼容性好)、微机械组装技术。

(二)微流量系统

微流动系统作为微机电系统的一个重要分支,近年来取得了很大的进展。微流动系统是由微型泵、微型阀、微型传感器、微沟道、微制动器等微型流动元件组成的,可进行微量流体的压力、流量和方向控制及成分分析的微电子机械系统。作为微机电系统的一个较大分支,微流动系统同样具有集成化和大批量生产的特点,同时由于尺寸微小,可减小流动系统中的无效体积,降低能耗和试样用量,而且响应快,因此有着广泛的应用前景;如液体和气体流量配给、化学分析、微型注射和药物传送、集成电路的微冷却、微小型卫星的推进等。微流动系统是现在过内外研究的重点和热点。

(三)微泵

微型泵作为微流体系统中的主要执行器件,是表征微流体系统发展水平的重要标志。最早的微型泵是荷兰Twente大学研制的热气动薄膜泵(日本东北大学同一时期也研制出压电致动薄膜泵)目前,微型泵的研究无论是从工作原理等理论角度,还是从加工工艺等实践方面都已经有了较大进步。微泵的类型多种多样,按驱动方式可分为压电致动式、气动式、热气动式、热机械驱动式以及静电致动式;按工作过程可分为往复式、蠕动式、电气液力式以及超声波式。泵体结构也有多种选择。泵体的制备工艺和材料选择也发展得很迅速,如LICA技术,DEM技术、高性能、低成本的塑料热压成型技术,甚至传统的塑料材料及其工艺都可用来制作泵体。另外,微泵根据其有无可动阀片可分为有阀型微泵和无阀型微泵。有阀型微型泵往往基于机械驱动,原理简单,制造工艺成熟,易于控制;而无阀型微型泵则常常利用流体在微尺下的新特性,原理新颖,更适于微型化,具有更大的发展前景。

(四)微沟道

目前,为流量控制系统的研究主流是单片集成式,主要采用MEMS技术进行制作,为了提高微流量系统的性能,对MEMS系统中微沟道内流体阻力的研究从未间断过,最近的研究主要集中于不同形状的微沟道转角的流体阻力和直流沟道内微突起的阻力情况。随着MEMS技术的发展,微流量系统的尺寸越来越小,由微米量级到纳米量级。当结构尺寸达到微米以后,不是传统的流体驱动与控制系统简单的几何缩小,两者在建模和仿真上存在很大差别。主要体现在以下几个方面:多能量域耦合所带来的多学科交叉渗透。由于微流体的致动方式有:电磁致动、静电致动、压电致动、形状记忆合金致动、热致动、化学反应致动、表面张力致动、离心力致动等。各种物理场如机械、流体、电子、热、光、磁等相互作用,形成力-电-磁-热等耦合的非线性系统,增加了建模和仿真的复杂性;尺度效应所引起的作用力的变化。当尺度减小时,微流体器件的表面积与体积之比大大增加,与体积力相比,表面力起主要作用,表面力成为微流动系统中摩擦力的主要来源;材料特性的变化。当材料尺寸小到一定程度时,就会出现与大尺寸材料截然不同的性能。又由于制备方法的不同,还会引起材料性能的差异,如抗拉强度,断裂韧性和残余应力等均有变化。对于宏观力学系统,经典的牛顿力学和流体力学理论是建立微流动系统数学模型的基础。由于特征长度微小化产生的尺度效应,使得微流动系统中的惯性作用相对较弱。本设计中的微沟道是在微米量级,对于微米级和毫米级的微系统来说,经典的牛顿力学和流体力学理论仍然是建立仿真模型的依据。就目前的技术水平而言,已有的微流动系统还是属于微米级和毫米级的,因此,建立在经典牛顿力学和流体力学基础上的动力学模型仍占有主导地位。

(五)本设计的背景和意义

从20世纪80年代开始,微机电系统已经逐步的从实验室探索时期走向工业化应用阶段。微流动系统是MEMS的一个重要的分支,是构成大多数微系统中感应元件和执行器件的主要组成部分,它包括微传感器、微泵、微阀、微喷和通道等。微流量系统同样具有集成化和批量生产的特点,同时由于尺寸小,可减小流动系统中的无效体积,降低能耗和试剂用量。而且响应快,因此具有广阔的应用前景。如在微流体供给和控制、药物的微量注射、微量元素分析、芯片冷却系统等方面将有重要应用。

目前微型泵的研究无论从工作原理等理论角度还是从加工工艺等实践方面都有了进一步的发展。微泵作为一个重要的微流动执行器件,是微流动系统发展水平的重要标志。微泵根据其有无可动阀片可分为有阀型微泵和无阀型微泵。有阀型微泵往往基于机械驱动,原理简单,制造工艺成熟,易于控制,是目前应用的主流;无阀微泵则常常利用流体在微尺下的新特性,原理比较新颖,更适于微型化,具有更大的发展前景。

收缩管/扩张管型微泵是比较典型的微泵,也是最近几年研究的热点,它以收缩和扩张的不同形状的通道代替了单向阀,利用因流道不对称性引起的压力损失的不对称性来实现流体的输送。使用压电片作为驱动,压电片是一种具有电能-机械能转化的器件,被广泛应用与微机械系统中。

传统的微泵一般结构复杂,使用多晶硅片致使加工成本过高键合的次数也增多了,精度的对准也降低了,同时,整体制作工艺繁琐,受到加工工艺和加工准确度的限制,导致效率和可靠性不高,因此简化微泵的结构和制作工艺、降低成本,有利于微泵的批量生产,在实际应用中具有广泛的前景。

(六)本设计的主要内容

1.本次设计采用收缩管/扩张管型无阀泵,利用收缩管/扩张管中流阻的差异制作出微小型无阀薄膜泵。因收缩管/扩张管压力损失系数的差异,从而使得在相同压差下流过两种管道的流量不同,无阀泵正是利用这一性能而实现流体的定向输送。使用晶面,利用异向腐蚀工艺制作出硅微收缩管/扩张管及无阀泵基片。并在Si片上面腐蚀出需要的沟道。泵腔的另一侧使用压电片作为驱动。

2.用MEMS设计系统进行仿真设计及分析,确定尺寸,进行工艺的模拟。得出可行性结果及设计版图。设计中采用的圆形泵腔,直径为10mm,扩散管/收缩管长度为5000?m,最大开口为600?m,三角形顶角≈7?。

3.进行实际的工艺制作。

二、微流量系统的基本结构、工作原理

本次设计的微流量控制系统是由扩散管型无阀微泵、压电驱动器、和微沟道组成。微泵的泵腔采用的是圆形泵腔,泵腔和压电片同等面积条件下圆形的形变大于方形。然而由于使用KOH腐蚀是存在各向异性,圆形泵腔难以实现。为了取得更好的效果,我们采用圆形泵腔。同时为了克服腐蚀中存在的各向异性,我们对泵腔采用切割技术。扩散管的设计采用的是三角形设计,在模拟过程中我们会看到三角形设计在腐蚀过程中,在控制好腐蚀时间的情况下,由于顶角的缺损,我们得到梯形截面。这样的设计优于我们在设计时就采用梯形设计。平面无阀微泵中扩散管的最优角度为7°,扩散管长度最大不得超过5000?m。在设计掩膜版时,受最小尺寸的限制,我们设计中采用的是宽口宽度600?m。长度5000?m。我们设计的微泵结构如图2-1所示。 微沟道中我们采用的是宽度250?m。使用压电片作为驱动。

图2-1 微泵的结构示意图

(一)无阀型微泵的工作原理

在微流量系统中,我们需要实现流体的定向流动。无阀微泵利用因流道不对称性引起的压力损失的不对称性来实现了流体的定向输送。无阀型微泵的基本工作原理如图2-1所示。其工作状态分为“供水状态”和“排水状态”:泵腔体积增大时是“供水状态”,从扩散管流入泵腔的流量大于从收缩管输出口流入泵腔的流量,因而产生净的入水量;泵腔体积减小时是“排水状态”,原来的收缩管变成扩散管,而原来的扩散管变为收缩管,从扩散管流出的流量比从收缩管流出的多,因而产生净的出水量。泵腔容积如此周期性变化,就会使流体不断地产生单向流动。

(二)压电片的工作原理

微驱动器作为一种换能器,它将电、光、热等多种形式的能量转换成为机械能输出。因此,它有多种不同的工作原理和结构形式.若从能量转换形式分类,有静电驱动、电磁驱动、压电驱动、形状记忆合金驱动、光驱动、凝胶驱动、热驱动以及超导驱动等形式。若按其输出运动的形式分类,则有线位移式、回转式和尺蠖式等。

设计中采用压电片做驱动,压电片是一种具有电能-机械能转换的器件,被广泛用于微机械系统。

压电驱动的工作原理是基于压电体具有逆压电效应(如果将一块压电晶体置于外电场中,由于电场的作用,会使压电晶体发生形变,而形变的大小与外电场的大小成正比,当电场撤除后,形变也消失了):S=d33E(其中:S为应变;d33为逆压电系数;E为电场强度),即当压电体受电场作用时会产生形变。与其他形式的驱动相比,压电驱动具有的最大特点是为微米、纳米量级的位移或运动提供了新手段和新途径。同时,压电驱动具有线性好、控制方便、位移分辨率高、频率响应好、不发热、无噪声等优点,所以,压电驱动已成为一种理想的微位移驱动技术[8]。

(三)扩散管尺寸的确定

为了优化扩散/收缩管的设计,取得更好的整流效率,我们研究下各项指数对扩散管整流效率的影响。我们先引用一篇文献[10]中的表格。

我们看到:在7°、13°、9.8°三个角度中,顶角为7°的扩散/收缩管的整流效率最高。过外的多篇文献也对这个问题进行了论证。其中W1 为扩散管的小口宽度,L为扩散管的长度,a为扩散管的角度,?为整流效率,?越大,整流效率越好。

工艺过程中,因为KOH在晶向的腐蚀,三角形的扩散管设计会在顶角产生损耗,从而可以得到一个梯形截面。我们可以通过调整腐蚀的条件进一步改善扩散管的各项系数。

(四)微沟道的设计

本设计中采用的微沟道的宽度为250?m,因为设计的尺寸在微米尺寸内,因此,建立在经典牛顿力学和流体力学基础上的动力学模型仍占有主导地位。我们不加以分析,我们只是观察微流量系统的单向流动性。

三、无阀微泵制作的计算机工艺模拟和制备

(一)计算机模拟

1.IntelliSuite系统

在实际中需要对工艺的工程进行计算机模拟,以确定扩散/收缩管的设计和多腐蚀工艺中浓度时间进行控制达到最佳效果。模拟使用的是IntelliSense。IntelliSuite主要包括9个模块:IntelliMask、IntelliFab、AnisE、3Dbuild、MEMaterial、Electrostatic、Mechanical、Electromechanical、Microfluidic。这里我们只用到IntelliMask、IntelliFab和AnisE三个模块,因此下面介绍一下这三个模块。

(1)掩膜设计模块IntelliMask

在进行MEMS器件的工艺、腐蚀模拟时,需要根据所设计器件的结构进行相关的掩膜图形设计。

(2)工艺设计模块IntelliFab

工艺设计模块是微系统设计所独有的,包含微机械制造工艺数据库和加工工艺流程仿真。使用者可以从工艺数据库中选择合适的加工工艺,包括氧化、扩散、离子注入、腐蚀、淀积和键合等工艺,在加工工艺流程中进行模拟,为器件的实际工艺流程提供可靠的技术保证。此外还可以通过使用工艺流程仿真实现器件设计在三维投影上可视化。

(3) 腐蚀模块AnisE

由于硅各向异性腐蚀的特点,使用常规的方法不能直接观测最终的腐蚀结果,AnisE的目的就是用来模拟硅的各向异性腐蚀。这个模块可以选择腐蚀液的种类,修改腐蚀液的浓度、温度、腐蚀时间以及数据库中各个方向的腐蚀速率,最后还可以提供器件腐蚀后的三维立体结构。利用AnisE的腐蚀模拟,可以观察削角补偿情况,提高设计质量、降低生产成本。

2.工艺流程模拟

利用IntelliFab对泵腔及微沟道的工艺流程进行模拟。模拟图如图3-1所。泵腔和微沟道的工艺模拟过程一致,只是所用的掩膜版不同。

图3-1 扩散管及微沟道的工艺过程模拟图

3.腐蚀工艺模拟

采用AnisE腐蚀模块,对无阀型微泵扩散/收缩管的制作起决定性作用的各向异性腐蚀工艺进行了软件模拟。模拟程序及各项设置如图3-2。

图3-2 AnisE模拟程序图

如图所示。70℃时,在30%的KOH腐蚀液中腐蚀0.5小时。各向异性腐蚀结果可通过AnisE模块给出的3D图像,见图3-3。

图3-3 微泵整体腐蚀效果图(温度70℃,浓度30%,时间30min)

为了清楚的看到扩散管的腐蚀效果,我们选其中一个扩散管的全图,腐蚀条件相同。效果图如图3-4所示。

图3-4 左侧扩散管3D效果图

我们对设计的沟道进行模拟,温度,浓度,腐蚀时间等条件相同,腐蚀效果图如图3-5所示。

图3-5 微沟道的腐蚀效果图

通过对腐蚀工艺的模拟我们可以得出设计的可行性。

(二)微流量系统的制作工艺

1.硅片的选择:选用厚度为500?m的〈100〉单晶硅片,微泵的硅片尺寸选

择30mm×30mm,沟道的硅片尺寸选择20mm×20mm。

2.掩膜版的制作:本设计中我们使用掩膜光刻底片作为掩膜版,是使用P99SE绘制图形后将图形输出到掩膜光刻底片上。将光刻底片固定在玻璃片上,要求底片和玻璃片清洁、无划痕、无污点。

3.硅片的清洗:(1)使用浓硫酸煮沸,待硫酸冒白烟是停止加热,冷却后倒掉浓硫酸,使用去离子水清洗3遍。(2)使用1号液(氨水:过氧化氢:水=1:2:5)加热至沸腾,倒掉残液,使用去离子水清洗3遍。如此清洗3次。(3)使用2号液(盐酸:过氧化氢:水=1:2:8)加热至沸腾3分钟,倒掉残液,使用去离子水清洗3遍。如此清洗3次。

4.氧化工艺:将清洗完毕的硅片在1180℃的氧化炉中氧化。干氧20分钟+湿氧40分钟+干氧20分钟。(氧化速率:干氧:5000?/30min,湿氧:8000?/60min。)得出SiO2厚度=7333?。

5.光刻工艺:(1)涂胶:将配制好的光刻胶(负性光刻胶)涂布在硅片氧化层表面上,要求涂布好的一薄层胶均匀而且无针孔。本设计中采用旋转涂胶法,卡盘转速为1000-3000转/分。(2)前烘:将涂好胶的硅片放在80℃的烘箱中烘15-20分钟。(3)曝光:选择预先准备好的掩膜版,防在光刻机上,硅片表面同掩膜版应紧密接触。曝光时间应很好控制,一般为20秒。(4)显影:将经过曝光以后的硅片放在有机溶剂中,是没有曝光的这部分胶溶解掉.本设计中采用丁酮作为显影液,将曝光后的硅片放在第一个称量瓶中,约一分钟后取 出放入第二个称量瓶中,约一分钟后取出。这样容易使胶去除干净。最后放入丙酮中,把硅片表面残留的显影液漂洗干净。(5)坚膜:经过显影合格的硅片就可以进行坚膜了,因为腐刻过程中对表面的二氧化硅具有腐蚀的作用,本设计中先用光刻胶涂布于硅片表面不需要腐蚀的地方。再进行坚膜。坚膜是把硅片放入200℃的烘箱中烘20分钟。(6)腐刻:腐刻是将硅片放在腐蚀液中,(本设计中使用的腐蚀液是氢氟酸+氟化氨+去离子水=8毫升+6毫升+10毫升在水浴30℃)使部分的二氧化硅腐蚀掉。

6.去胶:除去表面残留的光刻胶。本设计中使用的是热氧化去胶的方法。即用浓H2SO4 煮沸5分钟,待冷却后清洗。

7.腐蚀:使用30%KOH腐蚀液,在70℃温度下进行腐蚀,腐蚀时间30分钟。腐蚀速率:(100) 44.79micron/h,(110) 68.62 micron/h,(111) 0.98micron/h。微沟道的制作工艺与微泵的制作工艺基本相同,只是所用的掩膜版不同。将腐蚀后的硅片清洗,使用物理切割的方法制作出直径为10mm的圆形泵腔,泵腔打透硅片。将玻璃片对应出水口位置使用玻璃钻打孔,将玻璃片与微泵带有扩散管的一侧粘合,硅片的出水口与玻璃片的出水口对应。在硅片的另一侧圆形泵腔处粘合压电片。同样,把微沟道的硅片与带有出水孔的玻璃片粘合。这样,一个简易的微流量控制系统就制作完成了。

四、结论

本文主要介绍了微流量控制系统中主要部件如扩散管/收缩管型硅微泵、微沟道的设计、计算机模拟及制作工艺。采用多篇文献中的数据对扩散管的尺寸进行了优化设计。计算机的模拟过程帮助我们在没有实际制作时就了解了部件的性能,并在模拟中对我们的设计进行改进。验证了设计的可行性的同时,也为实际制作提供了参考。我们按照计算机模拟的程序进行了实际的工艺制作,最终完成了微流量控制系统的研究。

参考文献:

[1]刘虹,刘洁,杨立峰.MEMS的应用及发展前景[J].云南电大学报.2003,5(3):61-62

[2]尹执中,胡桅林,过增元.微流动系统的发展概况[J].流体机械.2000,28(4):33-36

[3]王沫然,李志信.基于MEMS的微泵研究进展[J].传感器技术.2002,21(6):59-61

[4]陆峰,谢里阳.微型泵的加工技术及应用[J].流体机械.2005,33(6):29-34

流量控制范文第9篇

中图分类号:X324 文献标识码:A 文章编号:

脱硝现状

在大气污染物中, 最主要的是燃煤引起的污染,燃煤烟气中的二氧化硫、氮氧化物(NOx)是影响我国环境空气质量的主要污染源。2011年初通过的“十二五”规划纲要,首次将NOx列入约束性指

标体系,要求减少10%,从而使NOx成为我国下一阶段污染减排的重点。烟气脱硝技术与NOx的氧化、还原及吸附的特性有关。根据反应介质状态的不同,分为干法脱硝和湿法脱硝,其中干法脱硝技术是目前工业研究、应用的主流和发展方向。

SCR工艺是目前商业应用最为广泛的烟气脱硝技术。SCR工艺是由美国Eegelhard公司开发,并于1959年申请了专利,而由日本率先在20世纪70年代对该方法实现了工业化。SCR烟气脱硝装置采用选择性催化还原烟气脱硝工艺, 在320~420 ℃的环境下,在特定的催化剂作用下,吹入NH3使NOx还原为N2和H2O,达到脱除NOx的目的。

SCR脱硝技术反应过程

主反应:NO+NO2+2NH3=2N2+3H2O

2NO2+4NH3+O2=3N2+6H2O

4NH3+2NO+2O2=3N2+6H2O

副反应:2SO2+O2=2SO3

SCR脱硝工艺流程

燃煤锅炉烟气脱硝:锅炉省煤器脱硝反应器空预器除尘脱硫装置引风机烟囱

工程实例

近年来由于资源的匮乏和过度开采,电厂的锅炉用燃煤品质参差不齐,且来源极不稳定,烟气参数极其复杂。而电厂考虑到经济效益,很多电厂并未实现满负荷运行,因此也给脱硝改造带来一些的问题。

在西北某5x330MW脱硝工程,脱硝装置采用选择性催化还原法(SCR),催化剂层数按“2+1”模式布置,初装2层预留1层。在设计煤种及校核煤种、锅炉最大工况(BMCR)、处理100%烟气量条件下,2层催化剂脱硝效率不小于70%。基本参数见附表1,基本要求:SCR装置能在锅炉30~100%BMCR负荷,且烟气温度在325℃~400℃条件下持续、安全地运行,并确保净烟气中的NOx含量符合设计要求。

附表1

当工程进入调试阶段时,发现在一定的工况下,脱硝装置无法稳定运行。通过对反应器出口的烟气进行分析,发现烟气中的NOx含量较高,没有达到预定的脱硝要求。通过对系统的排查,未发现有氨气的泄漏现象。经过仔细分析比对,发现当系统在低于60%BMCR的工况下运行时,控制供氨量的气动调节阀处于关闭状态,无法为系统正常供氨。

由于在高负荷时调节阀调节作用正常,基本排除产品质量上的问题。通过反复调试和排查,发现主要原因在于调节阀的自身结构上。调节阀由于工艺的限制,其阀板的切削角度使得其调节范围有限。喷氨流量控制主要通过调节阀的开度来适应不同锅炉负荷,实际运行中喷氨的效果并非与调节开度成线性关系。通过与厂家的沟通及试验情况来看,调节阀可以稳定运行在100%~60%的流量区间内,当流量低于60%时,调节阀将失去调节流量的作用。如果设定100%BMCR工况流量为全开形态,60%工况以下调节阀将无法正常工作。

通过纪录调试时的参数可以看出:

当锅炉负荷波动较大时,脱硝效率产生很明显的变化。

解决方法

目前由于SCR 工艺的限制,调节氨流量的方式比较有限。主要通过改善调节阀和喷氨格栅两种方法来实现。

调节阀由于其身特性,不能在比较大的范围内调节流量,但可以通过设置阀组来进行流量调节。以上述工程为例,由于锅炉负荷要求能在30%~100%范围均能达到80%脱硝效率,而按100%负荷设计的调节阀达不到低流量调节的能力。通过反复调试,限定30%负荷下流量为最小流量,全开时流量为50%左右。另外按相同配置设置一路旁路,当低于50%负荷时该旁路关闭。高于50%负荷时,一路旁路全开,另外一路可通过调节阀板开度实现流量的细微控制。所有的调节阀均采用气动执行机构,纳入脱硝DCS系统,实现远传控制。

两路调节阀的优势在于,可以精确地调节供氨量,并且在低负荷运行时可以互为备用。缺点在于价格相当较贵,且安装时须考虑先后运行关系,在低负荷时和高负荷时相对容易实现。中间状态时,须同时使用两路调节阀。因此,同时满足三种工况对于逻辑编程要求较高。

另外一种解决方案是通过调节阀和喷氨格栅的组合来实现调节。喷氨格栅是 SCR 脱硝系统普遍采用的一种喷氨技术,即将烟道截面分成20~ 50个大小不同的控制区域,每个区域有若干个喷射孔, 每个分区的流量单独可调,以匹配烟气中氮氧化物的浓度分布喷氨格栅包括喷氨管道支撑配件和氨分布装置等其主要特点是结构简单分布效果好不易积灰,可有效保护喷氨格栅喷嘴的磨损,减少脱硝反应器入口氨与烟气的混合距离,提高脱硝催化剂的利用率,降低脱硝反应器的高度。改善喷氨格栅的形式,设置上下两路的格栅,通过流场模拟来选定最佳的喷氨位置。调节阀按正常最大流量进行选型,将喷氨格栅一分为二。通过调节阀组和喷氨格栅的阀门开关来控制喷氨,目前已有工程进行尝试。

结束语

通过调节阀的工艺的改良,既能比较方便地实现控制,又可以适应不同工况下的脱硝要求。基于脱硝的现状,以及结合电厂的实际情况,此方法有一定的实用价值。

参考文献:

[1] 顾卫荣,周明吉,马薇。燃煤烟气脱硝技术的研究进展。2012.09

[2] 陈鹏,胡永锋。烟气脱硝装置中喷氨格栅的优化设计。2012.10

流量控制范文第10篇

关键词: 网络;QOS服务;流量控制

0 前言

2005年以前,网络服务主要是浏览网页、数据传输(上传和下载)、从服务器(数据库)中查询并获取数据。而今天,网络上除了这些传统的业务外,还增加了许多新型业务,如实时音频业务、Web多媒体应用、实施视频业务、交互式音频业务、交互式视频业务、交互式数据业务等。这么多种业务中同一个网络平台上运行,势必会互相产生影响,甚至是干扰,导致某些业务不能达到其应该具备的业务质量。用专业术语来说,就是这种业务的服务质量不能满足要求。例如,一个IP电话业务的语音总是断断续续,这就是服务质量不满足要求的例子。另外,虚拟私有网络(VPN)的广泛部署,也需要运营商和客户携手共同考虑如何保证客户能够获得端到端的服务质量,而运营商从中可以开辟新的业务增长点。

1 服务质量概述

服务质量(Quality of Service Qos)是网络(互联网)传输质量和服务可用性的度量。服务可用性是QOS的重要基础要素。成功实现QOS的前提是网络基础构造必须高度可靠。进一步理解QOS,它是指网络为某特定数据流提供优良服务(满足或超过业务要求的服务质量)的能力。承载数据流的底层网络技术包括帧中继、ATM、以太、SONET/SDH和PTN网络等。

1.1 决定QOS的因素

端到端(end-to-end)Qos是指从网络一端到另一端的QOS,这种QOS是全路程的,不是点到点的。端到端(end-to-end)Qos也是指网络能够为特定数据提供所要求服务质量的能力。决定这种能力的因素有带宽(Bandwidth)、丢包率(Loss)、延迟(Delay)、抖动(Jitter)。

1.2 端到端QOS服务模式

QOS服务模式(Service Model)用于描述端到端QOS的能力,在如何使应用程序发送数据和网络以什么方式转发数据上,不同模式之间是不同的。有尽力而为服务模式(Best-Effort Sercice Model)、集成服务模式(Integrated Service Model)、区分服务模式(Differentiated Service Model)3种服务模式可供选择。

2 流量整治

对数据进行分类跟标记,为了识别它,识别数据的目地是为了规整数据,使之符合QOS的要求(Traffic Policing)和流量整形(Traffic Shaping)。流量整治判断流量是否违规的工具是令牌桶(Token Bucket)。

1)单通单速。系统使用一个令牌桶测量数据是否符合(conforming)或违反(violating)规则。令牌桶的容量是BC,如果数据没有导致令牌桶内的令牌数量小于0,也就是说没有导致“数据桶”溢出,则这些数据就是符合规则的。相反,溢出“数据桶”的数据就是违规定数据。

2)双桶单速。第一个数据桶(承诺突发令牌桶)的容量是BC,如果数据在特定时间内没有溢出第一个数据桶,则该数据就是符合规则的数据;第二个数据桶(峰值突发令牌桶)的容量是Be

(Excess Burst),当第一个数据桶溢出时,数据进入第二个数据桶,这些数据成为超越(Excessing)的规定的数据。如果数据流过大,造成第二个数据桶溢出,则这些溢出的数据就是违反(violating)规则的数据。双令牌桶算法可以提供3种处理数据的行为(action):符合规则行为、超越规则行为和违反规则行为。

3)双桶双速。系统使用2个令牌桶测量数据,且定义了2个速率:CIR和PIR。第一个令牌桶的容量是BC,用来测量数据是否符合或超越CIR。如果在特定时间内没有导致第一个数据桶中令牌数量小于0,则该数据就是符合规则的数据,否则就是超越规则的数据;第二个令牌桶的容量是BC(Excessing Burst),用来测量数据是否违反PTR。当数据造成第二个令牌桶的令牌数量小于0时,那些溢出的数据就是违反(violating)规则的数据。

3 流量整形

流量整形(Tiaffic Shaping)用于控制数据离开接口的速率(出口速率),这样使得发送的速率与对方接收的速率相匹配。流量整形使用的工具和流量整治使用的工具是相同的,都是令牌桶(Token Bucket)。但它们对违规流量的处理是不同的。流量整形是使用缓存或队列方法暂时延缓发送那些超越速率的数据,从而达到规整数据流速度的目的。在应用中,这二种手段往往是同时实施的,前后执行的。

1)流量整形的优点。流量整形可以控制流量离开接口的速率,使其与接口或VC速率相匹配。使用流量整形技术,可以使二端速率匹配。流量整形可以保证流量满足合同的约定。它可帮助数据符合合同约定,确定应用于数据包的合适的服务质量。流量整形还具有避免产生瓶颈,避免丢包的效果。

2)流量整形技术。思科提供三种流量整形的方法:通用流量整形(Generic Traffic Shaping,GTS)、基于分类的流量整形(Class-based Traffic Shaping)和帧中继流量整形(Frame Relay Traffic Shaping,FRTS)。

3)GTS直接应用在物理接口或逻辑接口上规整流量,它支持多种二层链路类型和封装格式,包括帧中继、ATM、SMDS和以太网。GTS是以接口为单位规整流量的,它也可以使用ACL选择特定的流量进行规整。在帧中继的子接口上,GTS与BECN结合动态地调整带宽。GTS不支持多链路PPP接口(Multilink PPP)、

ISDN拨号接口和GRE隧道接口。

上一篇:智能控制器范文 下一篇:智能控制论文范文

友情链接