《思科数据中心I/O整合》一2.9 其他组件

2.9 其他组件

思科数据中心I/O整合
我们目前讨论的是实现I/O整合所需要的基本组件,其他还有一些技术可以帮助实现更大规模的I/O整合部署。在下一节中,我们将介绍以下组件:

发现协议(例如,DCBX);
带宽管理器(例如,ETS);
拥塞管理(例如,BCN/ QCN)。
DCBX:数据中心桥接交换
DCBX的名称来自于IEEE 802.1数据中心桥接工作小组,它涉及文档中所描述的大多数以太网扩展。DCBX是数据中心桥接的管理协议,由IEEE 802.1Qaz项目定义。DCBX是链路层发现协议(LLDP,参见IEEE 802.1AB-2005)的扩展。LLDP是一种与供应商无关的2层网络协议,允许网络设备向本地网络广播其身份及其支持的功能。

DCBX为以下协议提供逐跳支持:

基于优先级的流量控制(PFC);
带宽管理(ETS);
拥塞管理(BCN/ QCN);
应用程序(例如,FCoE);
逻辑链路中断。
DCBX能够发现链路两端节点支持的功能,并且能够检查它们的一致性。DCBX能够通知设备管理器节点配置不匹配的问题,并且如果其中一个节点未进行配置,DCBX还能够提供基本的配置。

图2-8展示了一种使用DCBX的网络部署场景。支持DCBX的链路能够交换DCB的功能,并向相应的管理节点发送冲突告警。例如,图中是用网络边界来表示支持和不支持拥塞管理的设备。

带宽管理
IEEE 802.1Q-2005定义了8种优先级,但是没有一种简单、有效和统一的调度机制来处理它们。调度机制的目标一般包括带宽、延迟和抖动控制。

产品一般实现了某种形式的差额加权轮询(DWRR),但是并没有统一的实现机制,因此在产品配置和互操作方面仍然会出现问题。

在802.1Qaz项目中,IEEE 802.1 DCB定义了一种硬件高效的双层差额加权轮询(DWRR)机制,支持严格优先级(Strict Priority),我们称之为增强传输选择(Enhanced Transmission Selection,ETS)。

图2-9说明了如何通过ETS将优先级归到第一级调度的优先级分组中,然后再通过第二级调度器对优先级分组进行调度。

通过这种结构,就可以给每一个优先级分组分配带宽(例如,40% LAN、40% SAN和20% IPC)。在每一个优先级分组中,多个流量类型可以共享该分组的带宽(例如,VoIP和大流量可以共享40%的LAN带宽)。

这种架构不仅能够控制带宽,也能够控制延迟时间。延迟时间对于数据中心而言越来越重要,特别是在IPC应用程序中。

拥塞管理
无损耗以太网的缺点之一是,当出现拥塞现象时,它会造成头节点阻塞(HOL)。这是因为无损耗以太网会将拥塞散播到整个网络。

在802.1Qau项目中,IEEE 802.1 DCB定义了一个2层的端到端拥塞通知协议。它的实际效果是将拥塞从网络核心转移到网络边缘,从而避免拥塞散播。在网络边缘,拥塞更容易处理,因为网络边缘的数据流数量远远少于网络核心,因此导致拥塞发生的数据流更容易被隔离,并且被限制速率。

这里考虑使用的算法包括反向拥塞通知(Backward Congestion Notification,BCN)和量化拥塞通知(Quantized Congestion Notification,QCN),其中QCN正处于标准化过程中。它们非常类似,其作用如图2-11中所示。

在使用拥塞通知机制时,出现拥塞的交换机(例如,拥塞点或CP)会向拥塞源发送消息(例如,响应点或RP),发出其拥塞状态的信令,另外还需要通过整形进入网络的流量从而减小传输速度。

在接收到拥塞通知消息时,它会在拥塞源的最近位置安装一个速度限制器,可能就位于产生流量的主机上,这样就能够减轻网络核心的拥塞现象,同时又不会导致拥塞扩散。

这种信令机制与PAUSE的主要区别是,PAUSE采用逐跳的工作方式而拥塞通知消息则可以通过所有路径到达拥塞源(参见图2-12)。

速度限制参数会根据拥塞点的反馈来进行动态调整。这与TCP在传输层(ISO OSI模型的第4层)的工作方式相似,但它是在2层协议上实现的,因此适用于所有流量类型,而不仅仅局限于TCP。这里使用的算法是Additive Increase Multiplicative Decrease(AIMD)速度控制算法。在不存在拥塞时,它会线性增加带宽的使用,但是在遇到拥塞时,它会以指数方式减小带宽的使用(例如,带宽减半)。MDS交换机的光纤通道也实现了类似的模式,被称为光纤通道拥塞控制(Fibre Channel Congestion Control,FCCC)。

延迟丢包
延迟丢包意味着使用PFC或PAUSE缓解短时间突发流量的影响,而对于长时间的拥塞则维持丢弃帧的处理方式。

延迟丢包允许将交换机缓存区实际上扩展到了前一跳。通过使用PFC,延迟丢包可以实现按优先级控制,并且特别适用于处理有损耗优先级,可以减少因暂时拥塞而造成的丢帧数量。具体的实现方法是判断有限时间段中优先级的PFC。

采用延迟丢包的主要原因之一是交换机的缓存区空间有限。由于能够从前一个交换机借用缓存区空间,所以可以缓解瞬时拥塞问题(例如,isolated burst),而且不会在有损耗优先级上出现丢帧现象。

在特定的时间段过去之后,或者峰值回落时,流量流回归正常,或者像标准以太网一样将帧丢弃。

图2-13显示了一种延迟丢包的实现方式,它使用代理队列测量突发流量的时长。在正常运行状态中,当帧增加或减少时,代理队列(实际上不存在,只是一组计数器)会模拟实际队列。如果接收到突发流量,实际队列会设置高位标记,然后发送一个PAUSE或PFC,阻止帧继续到达。代理队列远远大于实际队列,可以模拟继续接收帧的状态。当代理队列被填满时,PAUSE或PFC就会被释放(例如,生成一个时间为零的PAUSE或PFC帧),这时,帧就被丢弃,因为发送端已经恢复传输,而实际队列已满。延迟丢包的具体表现如表2-1所示。

换而言之,在短时间的拥塞过程中,两个队列的排队量都会快速减少,实际队列会释放PAUSE。而在长时间的拥塞过程中,代理列队会继续排队直到高位标记,并释放PAUSE。实际队列就开始抛弃数据包,而拥塞管理则由高层协议来接管。

时间: 2024-10-23 06:40:12

《思科数据中心I/O整合》一2.9 其他组件的相关文章

《思科数据中心I/O整合》一2.8 基于优先级的流量控制(PFC)

2.8 基于优先级的流量控制(PFC) 思科数据中心I/O整合 基于优先级的流量控制(PFC),也称为按优先级暂停(Per Priority Pause,PPP),这是一种精细的流控制机制.IEEE 802.1Q定义了一个标签(如图2-5所示),其中包含了3个比特(bits)的优先级字段(即它最多支持8种优先级).PFC能够基于优先级启用PAUSE功能. 如果将不同的流量类型映射到不同的优先级,那么就不会出现流量干扰问题.例如,在图2-6中,存储流量映射到优先级3,并且它是PAUSE的,同时IP

《思科数据中心I/O整合》一2.12 二层多路径技术(L2MP)

2.12 二层多路径技术(L2MP) 思科数据中心I/O整合 在所有参与传输的交换机中,用二层多路径技术替代STP其他协议,从而可以增加2层网络的带宽.双向带宽得到提高的原因有两个: 不再有拥塞端口,所有链路都处于思发状态: 网络中两点之间的流量可以通过多条路径进行传播. 多路径技术常用于IP网络,如果接入层链路和骨干链路之间的速度受限或者没有差别,那么这种技术将变得特别重要.正如第1章中所介绍的那样,这正是数据中心网络的场景,其中所有链路都是10GE. 多路径技术的另一个优点是降低延迟时间,因

《思科数据中心I/O整合》一2.11 活动-活动连接(Active-Active)

2.11 活动-活动连接(Active-Active) 思科数据中心I/O整合以太网通道以太网通道是一种端口聚合技术,在1994年由思科公司提出,并且在2000年,由IEEE 802的IEEE 802.3ad 项目实现了标准化.这个协议在思科和非思科交换机上都得到了广泛应用. 以太网通道支持将多个物理以以太网链路聚合为一个逻辑以太网链路,其带宽等同于所聚合链路的带宽之和.以太网通道可以聚合二至八条链路,而且所有高层协议都会将多条链路视为一个连接,如图2-18所示. 以太网通道有利于在交换机.路由

《思科数据中心I/O整合》一2.4 比较信用与PAUSE

2.4 比较信用与PAUSE 思科数据中心I/O整合人们最常问到的问题是"PAUSE是否等同于信用机制?"和"信用机制是否更好?". 光纤通道中使用信用机制来实现无损耗行为.在每一条链路上,链路在初始化过程中就预先确定了缓存区的数量,而每一条链路的节点都会记录空闲的缓存区.例如,如图2-3所示的链路,交换机A是发送端,它只有在交换机B存在至少一个空闲缓存区时才会发送数据帧.在如图2-3所示的例子中,B不存在空闲的缓存区,因为缓存区到缓存区(B2B)的计数为零,因此交

《思科数据中心I/O整合》一2.10 跨越生成树

2.10 跨越生成树 思科数据中心I/O整合2层网络基于生成树协议(Spanning Tree Protocol,STP)创建的生成树来转发帧.生成树(STP)会裁剪网状网络的一些链接,从而将它缩减为树状网络.从以太网出现以来,生成树这项技术就一直被使用.多年来,IEEE 802.1通过各种方法对其进行了改进.例如,在Per-VLAN生成树(PVST)中提供多个独立的树,以及减少生成树收敛时间. 生成树的主要设计目的之一就是消除网络拓扑中的所有环路,这是因为以太网帧的头部不包含任何"存活时间&q

《思科数据中心I/O整合》一2.7 为什么PAUSE未被广泛部署?

2.7 为什么PAUSE未被广泛部署? 思科数据中心I/O整合其主要原因是实现方式不统一.IEEE 802.3标准定义了基本机制,但是没有提供完整的实现方式.然而,这个问题很容易通过进入市场中的新产品来得到解决. 一定要注意的是,I/O整合需要使用一条链路来传输多种流量类型.而PAUSE适用于整个链路(即这是一种适合于所有类型流量使用的机制).通常,不同类型的流量会存在互不兼容的需求(例如,有一些需要有损耗行为,而另一些则需要无损耗行为),而这可能会导致"流量干扰"问题.例如,如果使用

《思科数据中心I/O整合》一2.14 问题与答案

2.14 问题与答案 思科数据中心I/O整合FCoE是否使用信用机制?问:FCoE是否需要/能够使用FC缓存区到缓存区的信用机制来管理队列? 答:在FCoE要求的无损耗以太网中,FC缓存区到缓存区的信用机制会替换为基于优先级的流量控制(或按优先级暂停). AUSE与信用机制的高可用性问:PAUSE与信用机制之间是否存在一些"高可用性"区别? 答:PAUSE或信用机制在高可用性方面并无区别.如果交换机出现故障,那么交换机临时存储的所有数据帧都会丢失,而与信用机制或是PAUSE无关.如果丢

《思科数据中心I/O整合》一2.15 术语

2.15 术语 思科数据中心I/O整合本章讨论的以太网扩展可以按照不同的名称进行分组. 数据中心桥接(DCB)指的是IEEE 802.1的标准化活动.IEEE 802.1 DCB工作小组正在开发的项目包括: 基于优先级的流量控制: 带宽管理: 配置(DCBX): 拥塞通知. DCB标准已提交到IEEE,但是仍未被批准为标准,所以现在被称为DCB v0(版本0),而且有一些供应商已经及时推出了一些可兼容DCB v0的产品. 术语聚合增强以太网(CEE)和数据中心以太网(DCE)还可用于将这些技术按

《思科数据中心I/O整合》一导读

前 言 思科数据中心I/O整合本书主要介绍Nuova Systems与思科(两家公司)在2006年至2007年完成的以太网向数据中心网络的演进工作.本书介绍的技术已经得到了行业认可,从2008年开始,它们开始逐渐形成产品与(行业)标准. 其中,FC-BB-5标准,定义了以太网光纤通道(FCoE协议),2009年6月4日通过了信息技术标准国际委员会(INCITS)T11光纤通道委员会的批准,转交给INCITS发布,成为一个美国国家标准机构(ANSI)的标准.本书主要反映FCoE标准. 本书从教学角