QoS 机制及其互操作性简述过去的几年,出现了很多针对服务质量(QoS) 网络的机制。
这些机制的最终目的在于为网络边缘的应用程序提供更好的网络服务。
本白皮书中,我们对QoS 的优势做了简要的讨论。
然后讨论了有哪些QoS 机制,以及在它们之间如何实现互操作。
1 引言在过去的几年中,出现了很多针对服务质量(QoS) 网络的机制。
这些机制的最终目的,在于为网络边缘的应用程序提供更好的网络服务。
在本白皮书中,我们简要讨论了QoS 的优势。
然后讨论了一些可用的QoS 机制,及它们如何进行互操作。
本文档的第 2 部分,“Microsoft QoS 组件”,则讨论了Microsoft 特有的QoS 机制,这部分也可以单独作为参考。
2 QoS 的优势近年来,我们目睹了计算机网络通信的迅猛发展。
为了跟上不断增长的需求,网络管理员已经非常努力地不断增加容量。
但网络客户还是经常对网络的性能不满。
随着新型的渴求资源型多媒体应用程序的普及,这种状况更加恶化。
QoS 机制提供了一套可供网络管理员使用的工具,能用有效的控制方式管理网络资源的使用。
这样就可以为执行关键任务的应用程序和用户提供更好的服务,同时也减缓了容量需求增长的速度。
换言之,QoS 可以帮助您在降低服务成本的同时,改善对网络用户的服务。
2.1 特定示例以下几个段落描述了几个特定示例,从中可以看到QoS 部署所带来的收益。
通过WAN 链接的关键任务应用程序的性能改善诸如SAP 和PeopleSoft 之类的应用程序,经常用在广域Intranet 上,提供关键任务服务。
这些链接特别容易拥塞,导致应用程序响应迟缓或会话超时,代价很大。
使用QoS,网络管理员可以让关键任务通信优先进行,使其免于在WAN 链接上拥塞。
而对与其竞争的重要性次之的应用程序,代价也微不足道。
QoS 方法好比在繁忙的高速公路上为经常往返的车辆提供专用通道。
关键任务通信被引向这些“通道”。
控制多媒体通信在网络上的影响多媒体数据流应用程序,如Windows Media™ Technologies、NetMeeting® 会议软件、RealAudio 和基于TAPI 3.0 的应用程序,在网络用户中越来越普及。
它们会生成大量UDP 通信。
这种通信在网络拥塞时也不“后退”,从这个意义上说它对网络是不友好的。
由于这种通信对网络资源的潜在影响,一般禁止或限制网络管理员在网络上部署多媒体应用程序。
而QoS 机制让网络管理员可以控制这些应用程序在网络上的影响。
启用多媒体在上面示例中,我们讨论了使用QoS 来控制多媒体数据流应用程序对网络资源的影响,而无需考虑事实上为多媒体应用程序提供的服务。
QoS 可用于为特定的数据流媒体应用程序提供特定的服务质量保障。
在这种情况下,QoS 让多媒体和数据网络实现了真正的收敛。
这种收敛的优势包括,可以使用IP 电话服务节省相当的开销。
3 QoS 工作原理应用程序按变化的速率生成通信,并通常需要网络也按生成速率传送通信。
而且,各种应用程序对网络通信延迟及延迟的变化容许能力有大有小。
某些应用程序可以容忍通信有一定的丢失,其它则不能。
如果可用的网络资源是无限的,所有应用程序通信都可以按应用程序需要的速度、零反应时间、零数据包丢失地传送。
但网络资源毕竟不是无限的。
所以,总有一部分网络不能满足对资源的需求。
网络是通过连接一系列诸如交换机和路由器等网络设备建成的。
网络设备之间使用接口来转发通信。
如果通信到达接口的速度大于接口向下一个设备转发的速度,就会发生拥塞。
因此,转发通信的接口容量成为一项基本的网络资源。
QoS 机制的工作原理就是,优先于其它通信为某些通信分配资源。
要做到这一点,首先必须识别不同的通信。
通过“数据包分类”,到达网络设备的通信分成不同的“流”。
然后,每个流的通信被引向转发接口上的相应“队列”。
每个接口上的队列都根据一些算法接受“服务”。
队列服务算法决定了每个队列通信被转发的速度,进而决定分配给每个队列和相应流的资源。
这样,为提供网络QoS,必需在网络设备中预备或配置下列各项:信息分类,让设备把通信分成不同的流。
队列和队列服务算法,处理来自不同流的通信。
我们把这些一起称为“通信处理机制”。
单独通信处理机制并没有用。
它们必须按一种统一的方式在很多设备上预备或配置,这种方式为网络提供了有用的端到端“服务”。
因此,要提供有用的服务,既需要通信处理机制,也需要预备和配置机制。
4 QoS 技术在下面几节中,我们将回顾一些用于提供QoS 的重要通信处理机制和重要预备和配置机制。
4.1 通信处理机制有许多通信处理机制可供使用。
在这一节,我们集中讨论几个重要的机制,包括“混合服务” (diffserv)、802.1p、“集成服务” (intserv)、ATM 和ISSLOW。
注意,通信处理机制可以分成“每对话”机制或“集合”机制。
每对话机制将每个对话的每个通信流都分开对待。
集合机制则把许多通信流归为一个集合类。
这种区别可以比作接待航空乘客。
一般,乘客被“标记”为头等舱、商务舱或普通舱。
同一个舱的所有乘客都一起处理。
这就是集合处理。
每对话处理就好象为每个乘客提供专线飞机--奢侈而昂贵。
4.1.1 混合服务(Diffserv)Diffserv 是一种集合通信处理机制,适用于大型路由网络。
这类网络可以传送成千上万的对话。
因此基于每对话原则处理通信是不切实际的。
Diffserv 在数据包IP 报头中定义了一个字段,称为diffserv 码点(DSCP)1。
发送通信至diffserv 网络的主机或路由器用DSCP 值标记每个被传送的数据包。
Diffserv 网络内的路由器使用DSCP 给数据包分类,并根据分类结果应用特定的队列行为。
如果许多流的通信有相似QoS 要求,则使用相同DSCP 标记,这样就把流集合至公共队列,或为其行为做日程安排。
4.1.2 802.1p802.1p 是适合局域网(LAN) 使用的集合通信处理机制。
它在以太网数据包的媒体访问(MAC) 报头中定义了一个字段,每个字段可以是八个优先级中的一个值。
发送通信至LAN 的主机或路由器用适当的优先级值标记每个被传送的数据包。
LAN 设备,如交换机、网桥和网络集线器,将按相应的方式处理数据包。
802.1p 优先级标记的作用域只限于LAN。
4.1.3 集成服务(Intserv)Intserv 是一个服务定义框架。
同样,它意味着一套基础通信处理机制。
一般认为,Intserv 服务基于每对话使用。
Intserv 一般会与RSVP 信号传输协议(在预备和配置机制后讨论)联系在一起,但这并不必要。
4.1.4 ATM、ISSLOW 及其它ATM 是一项链路层技术,提供了高质量的通信处理。
ATM 把数据包分解成链路层“信元”,然后使用适合某一ATM 服务的队列服务算法为这些信元列队并提供服务。
ISSLOW 是一种在数据包通过相对低速链接如拨号调制解调器时分解IP 数据包的技术。
音频和数据通过这些链接混合时,音频潜伏期可能很明显,会影响应用程序的可用性。
ISSLOW 可以缩小这些应用程序的音频潜伏期。
另外还有为各种媒体定义的其它通信处理机制,其中比如电缆调制解调器、混合光线同轴电缆(HFC) 设备、P1394 等等。
它们可以使用低层的链路层信号传输机制ATM,例如,使用UNI 信号传输。
4.2 预备和配置机制为有效提供网络QoS,必须在多个网络设备上让通信处理机制的预备和配置生效。
预备和配置机制可归为“自上而下”或“信号传输”两类。
4.2.1 “自上而下”预备在“自上而下”预备中,网络管理系统把通信处理配置“推”到一组网络设备。
一般,队列机制配置在设备接口上。
然后配置分类标准,以确定如何将数据包引向设备的不同队列。
数据包分类的标准可以基于IP 5 元组(源和目标IP 地址和端口及IP 协议),也可以基于数据包报头的DSCP 和802.1p 集合“掩码”。
可能还会使用遮蔽 5 元组。
分类标准可以只规定IP 5 元组的一个子集,例如,“所有源IP 地址为 2.2.2.X 的数据包”,其中X 可取任何值。
如果规定分类标准为DSCP 或802.1p,就必须在分类设备的上游某处做DSCP 或802.1p 标记。
这项工作可以由网络边缘附近的主机或网络设备完成。
后一种情况,负责标记的网络设备会配置成按自己的分类标准标记,一般是 5 元组(或它的某个子集)。
4.2.1.1 “自上而下”预备中的挑战确定适当的分类标准具有很强的挑战性。
网络管理员可能更愿意使用QoS 为特定应用程序或用户通信分配资源,而不是使用数据包报头中的字段,如IP 地址和端口。
“自上而下” 预备系统试图通过在应用程序和IP 端口之间、用户和IP 地址之间建立绑定,以帮助网络管理员。
但不幸的是,它们经常不可靠。
应用程序可能会使用临时的端口,或将多个通信流(需要不同的QoS )溯源于同一端口。
DHCP 可能会导致用户的IP 地址更改。
多用户机器可能为多个用户使用同一IP 地址。
IPSec 加密可能将IP 端口加密,让它们无法作为分类标准。
“自上而下”预备的另一个挑战是对网络中不同节点通信量的预期。
例如,管理系统可能在每个网络设备都配置了低潜伏队列,能够同时处理有特定潜伏期限的10 个IP 电话服务会话。
然后在每台设备上配置分类标准,把IP 电话服务通信引向低潜伏队列。
只要电话服务通信到达每台设备,这项工作就仅限于10 个会话。
但如果建立了第11 个电话服务会话通过其中一台设备,就会拥塞低潜伏队列,因为潜伏超出了配置范围。
结果是,这不仅会危及第11 个会话,还会危及10 个现有的会话。
这是由于“自上而下”预备相对静态的性质,而管理系统不直接了解当前的通信方式。
4.2.2 RSVP 信号传输配置机制RSVP 信号传输可作为“自上而下”预备机制的一个补充。
在这种情况下,主机生成信号传输消息,描述特定对话相关的数据通信。
这些消息沿与数据通信相同的路径在网络中流动。
RSVP 消息为网络提供了以下信息:我是什么--源应用程序和子流(如打印流对时间关键型事务)。
我是谁--身份验证的用户ID。
我要什么--需要的QoS 服务类型。
我要多少--特定应用程序精确量化它们的资源需求。
怎样识别我--识别数据通信的 5 元组分类标准。
哪些网络设备资源会受到相关数据通信的影响。
这些基于主机的信号传输为QoS 管理系统带来很大好处。
基于主机的信号传输一个明显好处是,它在分类信息与用户、应用程序之间提供了健壮的绑定。
除此之外,基于主机的信号传输还提供了“拓扑认知动态准入控制”。
这个功能是解决前面描述的“第11 个电话服务会话”问题的关键。
RSVP 信号传输为数据路径沿途的设备提供了一个有关需要资源的消息。