在网络通信中,流量整形控制是一项非常重要的技术。它可以控制网络带宽,使不同应用程序间的带宽使用平衡,并避免高带宽消耗对其他应用程序造成影响。在Linux中,可以使用一些工具来实现流量整形控制,本文将介绍如何在Linux中实现流量整形控制。
为拱墅等地区用户提供了全套网页设计制作服务,及拱墅网站建设行业解决方案。主营业务为网站设计制作、成都网站制作、拱墅网站设计,以传统方式定制建设网站,并提供域名空间备案等一条龙服务,秉承以专业、用心的态度为用户提供真诚的服务。我们深信只要达到每一位用户的要求,就会得到认可,从而选择与我们长期合作。这样,我们也可以走得更远!
1. TC
TC是Linux内核默认的一个网络控制工具,可用于实现流量整形控制、延迟控制和带宽管理等功能。TC以网络队列规则为核心,使用一组过滤和处理规则,可以定义网络流量的限制、分类和调度。TC的命令行方式使用较为复杂,但是可以通过一些脚本进行封装,使其使用更加简单。
2. Wondershaper
Wondershaper是一款基于TC的网络带宽管理工具,它可以快速地对网络带宽进行限制和分配,适用于家庭网络和小型办公网络。Wondershaper使用起来非常简单,只需要在命令行中执行相应的命令即可。比如,如果想要将网络带宽限制在1Mbps,可以使用以下命令:
sudo wondershaper eth0 1024 256
其中,eth0是网络接口名,1024是限制,单位是Kbps,256是上传速度限制,单位是Kbps。
3. Trickle
Trickle是一款基于用户的网络控制工具,它可以为每个用户限制和分配网络带宽。Trickle使用起来非常简单,只需要通过命令行指定带宽限制即可。
比如,如果想要限制某个应用程序的为200KB/s,可以使用以下命令:
trickle -u 200 -d 200 firefox
其中,-u参数表示上传速度限制,-d参数表示限制,firefox表示需要限制的应用程序。
4. Nfq
Nfq是一款基于Linux内核Netfilter框架的网络队列管理软件,在使用前需要做一定的配置。Nfq可以通过配置网络规则来实现流量整形控制和包过滤等功能,具有较高的灵活性和可定制性。Nfq的命令行使用较为复杂,需要有一定的Linux系统和网络知识。
:
流量整形控制是保证网络带宽平衡和网络性能的重要手段之一。Linux中有多种工具可以实现流量整形控制,每个工具都有其自身的特点和使用方法。根据实际需要,可以选择合适的工具来实现流量整形控制,以满足网络带宽限制和优化的要求。
相关问题拓展阅读:
1.1 SHAPING(限制):控制流量在某个值以下。限制值可以大大小于有效带宽,这样可以平滑突发数据流量,使网络更为稳定。shaping(限制)只适用于向外的流量。
1.2 SCHEDULING(调度):通过调度数据包的传输,可以在带宽范围内,按照优先级分配带宽。SCHEDULING(调度)也只适于向外的流量。和亏
1.3 POLICING(策略):SHAPING用于处理向外的流量,而POLICIING(策略)用于处理接收到的数据。
1.4 DROPPING(丢弃):如果流量超过某个设定的带宽,就丢弃数据包,不管是向内还是向外。
2.1队列控制 :即 QOS,TOS 瓶颈处的发送队列的规则控制,常见的有 SFQ、 PRIO。
2.2流量控制 即带宽控制 , 队列的排队整形, 一般为 TBF、 HTB。
3.1无类算法 用于树叶级无分支的队列,例如:SFQ
3.2分类算法 用于多分支的队列,例如:PRIO 、TB、F HTB
Tc对象列表
结构图
我们可以使用以下三种方式为数据包归类,不过不是所有的QDisc都能够使用这三种方式。
FILTER
QDisc、类和过滤器都有ID。ID可以手工设置,也可以有内核自动分配。ID由一个主序列号和一个从序列号组成,两个数字用一个冒号分开。
Linux流量控制主要分为建立队列、建立分类和建立过滤器三个方面。
基本实现步骤为:
(1) 针对网络物理设备(如以太网卡eth0)绑定一个队列QDisc;
(2) 在该队列上建立分类class;
(3) 为每一分类建立一个基于路由的过滤器filter;
(4) 最后与过滤器相配合,建立特定的路由表。
令牌桶过滤器 (TBF) 是一个简单的队列规定 : 只允许以不超过事先设定的速率到来的数据包通过 , 但可能允许短暂突发流量朝过设定值 .TBF 很精确 , 对于网络和处理器的影响都很小 , 实现是针对数据的字节数进行的 , 而不是针对数据包进行 , 常用于网关限速 .
TBF 的实现在梁蚂于一个缓冲器 ( 桶 ), 不断地被一些叫做”令牌”的虚拟数据以特定速率填充着 . (token rate). 桶最重要的参数就是它的大小 , 也就是它能够存储令牌的数量 . 每个到来的令牌从数据队列中收集一个数据包 , 然后从桶中被删除 . 这个算法关联到两个流上——令牌流和数据流 , 于是我们得到 3 种情景 :
测试机器 192.168.5.52 与 192.168.8.51
在192.168.8.52 上设置qdisc 进行流量控制。
对192.168.8.52,进行tbf设定:
由于tbf 属于不可分类qdisc,配置步骤只有一步:
tc qdisc add dev enohandle 1: root tbf rate 10Mbit burst 10kbit limit 20Mbit
handle 设定qdisc 句柄号 ,省略则随机给定
rate 设定更大的发包速率,单位默认唤渣神字节
burst 设定令牌通大小,单位默认字节 注:在 Intel 体系上 ,10 兆 bit/s 的reate需要至少 10k 字节的burst。
limit 带宽大小,控制总带宽,另外一个作用是,对没有获取到tokent 排队中包进行限制,达到limit 限定则丢弃。
prio qdisc 属于可分类qdisc,不可动态添加类的算法。
分类算法:主要作用是可以对多种数据流区别对待 . 一旦数据包进入一个分类的队列规定 , 它就得被送到某一个类中分类 ,
对数据包进行分类的工具是过滤器 . 过滤器会返回一个决定 , 队列规定就根据这个决定把数据包送入相应的类进行排队 .
每个子类都可以再次使用它们的过滤器进行进一步的分类 . 直到不需要进一步分类时 , 数据包才进入该类包含的队列规定排队 . 除了能够包含其它队列规定之外 , 绝大多数分类的队列规定能够流量整形。
PRIO 分类优先算法 ( 从左至右优先发包 ): 队列规定并不进行整形 , 它仅仅根据你配置的过滤器把流量进一步细分 .
你可以认为 PRIO 队列规定是 pfifo_fast 的一种衍生物 , 区别在每个频道都是一个单独的类 , 而非简单的 FIFO.
当数据包进入 PRIO 队列规定后 , 将根据你给定的过滤器设置选择一个类 . 缺省情况下有三个类 , 这些类仅包含纯 FIFO 队列规定而没有更多的内部结构 .
你可以把它们替换成你需要的任何队列规定 . 每当有一个数据包需要出队时 , 首先处理 :1 类 . 只有当标号更小的类中没有需要处理的包时 , 才会标号大的类 .
测试机器 192.168.5.52 与 192.168.8.51
在192.168.8.52 上设置qdisc 进行流量控制。
通过iperf –S 选项设定 TOS包头字段使流量分类
1.tc qdisc add dev enoroot handle 1: prio priomap 1 1
2.tc qdisc add dev enoparent 1:1 handle 10: pfifo
tc qdisc add dev enoparent 1:2 handle 20: tbf rate 10mb buffer 10kb limit 15mb
tc qdisc add dev enoparent 1:3 handle 30: tbf rate 20kbit buffer 1600 limit 3000
之一步:给网卡定义一个根qdisc 使用prio算法。注:priomap 选项所设定的16个tos标识符与3个bond的
关系,可省略,这里为解析选项,使用的也是默认结构关系。
第二步:给三个band即三个缺省的class 配置子qdisc ,为了测试效果,这里给class10设定pfifo算法,避免测试时
ssh本身被限制挂起,给class20 、class30 使用tbf算法,限定不同的速率,以体现prio的分类特性,由于
条件限制,可能无法体现出 三个class的优先级特性。
第三步:由于prio 协议使用TOS 字段进行分类,在本案例中直接使用iperf 工具 直接定义流量包的tos 包头,
本例将省略 FILTERS 的配置。(可以配置filter有iptables-mangle表、cgroup)
该 prio算法可以实现流量分类效果,适用在多业务并存的场景。
CBQ qdisc 属于可分类qdisc,可动态添加类的算法
CBQ 的工作机制是确认链路的闲置时间足够长 , 以达到降低链路实际带宽的目的 . 为此 , 它要计算两个数据包的平均发送间隔 . 操作期间 , 有效闲置时间的测量使用EWMA(exponential weighted moving average, 指数加权移动均值 ) 算法 , 也就是说最近处理的数据包的权值比以前的数据包按指数增加 . 计算出来的平均时间值减去 EWMA 测量值 , 得出的结果叫做”avgidle”. 更佳的链路负载情况下 , 这个值应当是 0.
数据包严格按照计算出来的时间间隔到来 . 在一个过载的链路上 ,avgidle 值应当是负的 . 如果这个负值太严重 ,CBQ 就会暂时禁止发包 , 称为”overlimit”( 越限 ).
相反地 , 一个闲置的链路应该有很大 avgidle 值 , 这样闲置几个小时后 , 会造成链路允许非常大的带宽通过 . 为了避免这种局面 , 我们用 maxidle 来限 avgidle的值不能太大 .
理论上讲 , 如果发生越限 ,CBQ 就会禁止发包一段时间 ( 长度就是事先计算出来的传输数据包之间的时间间隔 ), 然后通过一个数据包后再次禁止发包 。
模拟的场景
假如有三种类型的流量需要控制:
配置子qdisc与class,及class 的子qdisc
注: 此处的子qdisc 是归属于class的,在定义class直接定义。这些qdisc使用 tc qdisc ls 命令查不到。与prio算法不一样。prio在创建qdisc 是class已创建,class的子dqisc 无法通过一般方式修改,故使用创建qdisc的方式。
建立分类器
6.tc filter add dev enoparent 1:0 protocol ip prio 100 route
7.tc filter add dev enoparent 1:0 protocol ip prio 100 route to 2 flowid 1:2
8.tc filter add dev enoparent 1:0 protocol ip prio 100 route to 3 flowid 1:3
9.tc filter add dev enoparent 1:0 protocol ip prio 100 route to 4 flowid 1:4
修改路由
10.ip route add 192.168.8.51 dev enorealm 2
11.ip route add 192.168.8.53 dev enorealm 3
12.ip route add 192.168.8.0/24 dev enorealm 4
去除分类器来讲,该算法本身适用的场景,流量整形,调度,合理分配带宽
注:一般对于流量控制器所直接连接的网段建议使用IP主机地址流量控制限制,不要使用子网流量控制限制。如一定需要对直连子网使用子网流量控制限制,则在建立该子网的路由映射前,需将原先由系统建立的路由删除,才可完成相应步骤。
该算法参考tbf算法,这里注重演示u32分类器。
环境与要求同上述 CBQ 的例子
添加过滤器 , 直接把流量导向相应的类 :
U32 是常用的分类器,分类器是对数据包进行分类工具 , 分类器用与把数据包分类并放入相应的子队列 ,
这些分类器在分类的队列规定内部被调用 . 为了决定用哪个类处理数据包 , 必须调用所谓的”分类器链” 进行选择 . 这个链中包含了这个分类队列规定所需的所有分类器 .
如图(结构图)所示分类器工作在拥有子类的class上,即树状的分支处。
当一个数据包入队的时候 , 每一个分支处都会咨询过滤器链如何进行下一步 .
你可以把后一个过滤器同时放在 1:1 处, 而得到效率的提高 .
另外使用 HTB 的时候应该把所有的规则放到根上。
注 : 数据包只能向”下”进行入队操作 ! 只有出队的时候才会上到网卡所在的位置来 . 他们不会落到树的更底层后送到网卡
TC的安装
TC是Linux自带的模块,一般情况下不需要另行安装,可以用 man tc 查看tc 相关命令细节,tc 要求内核 2.4.18 以上
view plain copy
##注意:64位机器上,先执行下面命令
ln -s /usr/lib64/tc /usr/lib/tc
TC原理介绍
Linux 操作系统中的流量控制器 TC(Traffic Control) 用于Linux内核的流量控制,它利用队列规定建立处理数据包的队列,并定义队列中的数据包被发送的方式,从而实现对流量的控制。TC 模块实现流量控制功能使用的队列规定分为两类,一类是无类队列规定,另一类是分类队列规定。无类队列规定相对简单,而分类队列规定则引出了分类和过滤器等概念,使其流量控制功能增强。
无类队列铅祥规定是对进入网络设备(网卡)的数据流不加区分统一对待的队列规定。使用无类队列规定形成的队列能够接收数据包以及重新编排、延迟或丢弃数据包。这类队列规定形成的队列可以对整个网络设备(网卡)的流量进行整形,但不能细分各种情况。常用的无类队列规定主要有 pfifo_fast(先进先出渗戚)、TBF(令牌桶过滤器)、SFQ(随机公平队列)、ID(前向随机丢包)等等。这类队列规定使用的流量整形手段主要是排序、限速和丢包。
流量控制(笑洞游滑动窗口协议)是数据链路层为避免拥塞而采取的措施碰销,颤棚为了提高发送数据的吞吐率,又对流量进行了控制。
而流量整形是调节数据的平均速率和突发性;是网络层为了避免拥塞而采取的措施的;是由路由器来进行相应操作的。
没区别,叫法不一样罢了。都是基于linux的tc做的流控。
关于linux流量整形的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。
香港服务器选创新互联,2H2G首月10元开通。
创新互联(www.cdcxhl.com)互联网服务提供商,拥有超过10年的服务器租用、服务器托管、云服务器、虚拟主机、网站系统开发经验。专业提供云主机、虚拟主机、域名注册、VPS主机、云服务器、香港云服务器、免备案服务器等。
本文题目:如何在Linux中实现流量整形控制?(linux流量整形)
文章路径:http://www.shufengxianlan.com/qtweb/news8/533258.html
网站建设、网络推广公司-创新互联,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联