《思科数据中心I/O整合》一2.11 活动-活动连接(Active-Active)

2.11 活动-活动连接(Active-Active)

思科数据中心I/O整合
以太网通道
以太网通道是一种端口聚合技术,在1994年由思科公司提出,并且在2000年,由IEEE 802的IEEE 802.3ad 项目实现了标准化。这个协议在思科和非思科交换机上都得到了广泛应用。

以太网通道支持将多个物理以以太网链路聚合为一个逻辑以太网链路,其带宽等同于所聚合链路的带宽之和。以太网通道可以聚合二至八条链路,而且所有高层协议都会将多条链路视为一个连接,如图2-18所示。

以太网通道有利于在交换机、路由器和服务器之间实现容错和高速的链路,同时不会阻塞任何端口,从而能够利用所有的链路。

以太网通道的缺点是聚合的所有物理端口都必须位于同一个交换机上。为此,出现了下面三种解决方案(VSS、vPC和以太网主机虚拟器),具体参见图2-19。

在图2-19中,4台接入层交换机连接了两台汇聚层交换机,而他们的上行链路则保持活动—活动状态。(例如,STP不会裁剪任何链路。)

虚拟交换系统(VSS)
VSS是思科公司支持使用以太网通道将一台接入层交换机连接到两台汇聚层交换机的两种技术中最早使用的技术,如图2-20所示。

具体的实现方式是,VSS通过集群方式将两台物理交换机形成一台逻辑实体。由于每个物理设备变得不可区分,因此接入层交换机会将上游交换机视为一台汇聚层交换机(参见图2-18)。

此外,VSS还具有许多的优点,因为它能够提高设备的高可用性、可扩展性、管理性和维护性。

思科VSS技术的关键因素是一条名为虚拟交换链路(VSL)的特殊链路,它能够将两台物理交换机绑定在一起,并且能够传递特殊的控制信息。

VSL链路是两台交换机的内部矩阵之间的连接,能够将它们组合为一个逻辑网络实体,并且使外部观察者无法区分它们。因此,接入层交换机可以使用多条上行链路连接两台交换机,并将它们配置为标准的以太网通道,可以这样做的原因是,VSS是作为一个逻辑交换机或路由器而出现的。

在思科VSS中,从数据平面看,两台交换机都处于活动状态,但是从控制和管理平面看,只有一台交换机处于活动状态,而另一台则处于热待机状态,与双引擎交换机的情况很相似(例如,Catalyst 6500)。

所有控制平面功能,包括管理(SNMP、Telnet、SSH)、2层协议(STP、LACP等)和3层路由协议都由活动交换机集中管理。此外,这台交换机还负责管理两台交换机的硬件转发信息。

VSS要求两台集群成员交换机严格管理和整合。

虚拟端口通道(vPC)
vPC(也称为多机箱以太网通道/虚拟端口通道,MCEC/vPC),实现了与VSS相似的结果,但是不需要在vPC交换机之间实现像VSS同等水平的严格整合(参见图2-21)。具体地讲,vPC不是一种类似VSL私有协议的概念,而且vPC交换机之间的整合要求也不像VSS那么高。

从接入层交换机的角度看,没有任何变化:vPC仍然使用未修改的以太网通道,并且将vPC交换机视为一个STP逻辑网桥。

每一个vPC交换机都维护其身份、管理及控制平面,但是它们会与其他vPC交换机一起协作,实现活动—活动(Active-Active)的虚拟端口通道。vPC的目标并不是将两台vPC交换机整合在一起,而在VSS中是整合的。

vPC交换机之间的链路被称为对等链路,这是一种常规的数据链路,涉及控制平面和数据平面转发。特别是,该链路在以下方面发挥着重要作用:

vPC交换机之间与vPC相关的控制平面信息的交换;
vPC交换机之间的心跳机制;
故障情况下的数据流量;
不对称连接的主机/交换机之间的数据流量;
广播/组播/泛洪帧。
vPC(VSS中也存在)的主要挑战是如何保证每个帧只被转发一次,避免出现帧被复制和环路转发。在一些与两台汇聚层交换机连接以及一些没使用生成树协议,且只连接一台汇聚层交换机(例如,一条上行链路出现故障)的接入层交换机上,这个问题是必须解决的。

为了实现这个目标,每一个vPC交换机都需要将端口划分成三个组(参见图2-21)。

对等链路端口:这些端口连接其他的vPC交换机。
vPC端口:这些端口连接一台活动的vPC(例如,主机或交换机链接到这些端口的同时,还连接着其他的vPC交换机)。
非vPC端口:连接一些“孤立的”主机或交换机(例如,由于配置或故障原因,它们不与其他vPC交换机连接)。
关于帧转发工作方式的完整讨论不属于本书的阐述范围,但是在一般情况下:

来自vPC端口或非vPC端口的单播帧会像普通交换机端口转发单播帧一样被转发;
来自对等链路要转发到vPC端口的单播帧会被丢弃,因为接收端交换机会假定该帧已经通过另一台vPC交换机、顺利地被传输到目标地址;
来自对等链路要转发到非vPC端口的单播帧会被转发,因为在另一台vPC交换机上没有直接传输该帧的路径;
来自任意非对等链路端口的组播/广播帧会被传输到所有其他端口;
来自对等链路的组播/广播帧会被传输到所有非vPC端口,因为接收端交换机会假定它已经被传输到其他vPC交换机的vPC端口上。
以太网主机虚拟器(Ethernet Host Virtualizer)
VSS和vPC是汇聚层交换机实现的一种技术手段,它允许接入层交换机继续以传统方式使用以太网通道。

接入层交换机还可以使用一种名为以太网主机虚拟器的技术来解决这个问题。

如图2-22所示,接入层交换机实现了以太网虚拟器,而汇聚层交换机则继续运行传统的STP。

运行以太网主机虚拟器的交换机会将端口分成两组:主机端口和网络端口。这两种端口都可以是一个接口或一个以太网通道。然后,交换机会给每一个主机端口关联一个网络端口,这个过程称为绑定(pinning)。

除非出现故障,否则同一个主机端口总是使用同一个网络端口。在这种情况下,接入层交换机会将绑定转移到另一个网络端口。

在如图2-22所示的例子中,MAC-A总是位于左边的网络端口,而MAC-B则总是位于右边的网络端口。

对于特定主机端口的网络端口的选择,取决于如何人工配置或者交换机根据其负载状况决定,这种关系会一直维持到主机端口或网络端口断开连接。

如果出现这种情况,关联的主机端口会被重新分配给剩余的其他活动的网络端口。

必须特别注意组播和广播帧,避免出现环路和重复帧。一般情况下,部署这个特性的接入层交换机会有以下表现:

它们不会将来自网络端口的帧传输给另一个网络端口;
它们会根据组播组划分组播/广播流量,而且会为每一个组播组分配一个网络端口,只有一个网络端口可以传输和接收该组播组流量。
以太网主机虚拟器比下一节中将要讨论的二层多路径技术更为少见,而且只适用于连接到主机或存储阵列的接入层交换机,不适用于汇聚层或核心层交换机。但它的最大优势是部署简单,不需要任何改动就能够连接到现有的核心—汇聚层网络中。

时间: 2024-10-27 08:16:38

《思科数据中心I/O整合》一2.11 活动-活动连接(Active-Active)的相关文章

《思科数据中心I/O整合》一2.8 基于优先级的流量控制(PFC)

2.8 基于优先级的流量控制(PFC) 思科数据中心I/O整合 基于优先级的流量控制(PFC),也称为按优先级暂停(Per Priority Pause,PPP),这是一种精细的流控制机制.IEEE 802.1Q定义了一个标签(如图2-5所示),其中包含了3个比特(bits)的优先级字段(即它最多支持8种优先级).PFC能够基于优先级启用PAUSE功能. 如果将不同的流量类型映射到不同的优先级,那么就不会出现流量干扰问题.例如,在图2-6中,存储流量映射到优先级3,并且它是PAUSE的,同时IP

《思科数据中心I/O整合》一2.12 二层多路径技术(L2MP)

2.12 二层多路径技术(L2MP) 思科数据中心I/O整合 在所有参与传输的交换机中,用二层多路径技术替代STP其他协议,从而可以增加2层网络的带宽.双向带宽得到提高的原因有两个: 不再有拥塞端口,所有链路都处于思发状态: 网络中两点之间的流量可以通过多条路径进行传播. 多路径技术常用于IP网络,如果接入层链路和骨干链路之间的速度受限或者没有差别,那么这种技术将变得特别重要.正如第1章中所介绍的那样,这正是数据中心网络的场景,其中所有链路都是10GE. 多路径技术的另一个优点是降低延迟时间,因

《思科数据中心I/O整合》一2.4 比较信用与PAUSE

2.4 比较信用与PAUSE 思科数据中心I/O整合人们最常问到的问题是"PAUSE是否等同于信用机制?"和"信用机制是否更好?". 光纤通道中使用信用机制来实现无损耗行为.在每一条链路上,链路在初始化过程中就预先确定了缓存区的数量,而每一条链路的节点都会记录空闲的缓存区.例如,如图2-3所示的链路,交换机A是发送端,它只有在交换机B存在至少一个空闲缓存区时才会发送数据帧.在如图2-3所示的例子中,B不存在空闲的缓存区,因为缓存区到缓存区(B2B)的计数为零,因此交

《思科数据中心I/O整合》一2.10 跨越生成树

2.10 跨越生成树 思科数据中心I/O整合2层网络基于生成树协议(Spanning Tree Protocol,STP)创建的生成树来转发帧.生成树(STP)会裁剪网状网络的一些链接,从而将它缩减为树状网络.从以太网出现以来,生成树这项技术就一直被使用.多年来,IEEE 802.1通过各种方法对其进行了改进.例如,在Per-VLAN生成树(PVST)中提供多个独立的树,以及减少生成树收敛时间. 生成树的主要设计目的之一就是消除网络拓扑中的所有环路,这是因为以太网帧的头部不包含任何"存活时间&q

《思科数据中心I/O整合》一2.7 为什么PAUSE未被广泛部署?

2.7 为什么PAUSE未被广泛部署? 思科数据中心I/O整合其主要原因是实现方式不统一.IEEE 802.3标准定义了基本机制,但是没有提供完整的实现方式.然而,这个问题很容易通过进入市场中的新产品来得到解决. 一定要注意的是,I/O整合需要使用一条链路来传输多种流量类型.而PAUSE适用于整个链路(即这是一种适合于所有类型流量使用的机制).通常,不同类型的流量会存在互不兼容的需求(例如,有一些需要有损耗行为,而另一些则需要无损耗行为),而这可能会导致"流量干扰"问题.例如,如果使用

《思科数据中心I/O整合》一2.14 问题与答案

2.14 问题与答案 思科数据中心I/O整合FCoE是否使用信用机制?问:FCoE是否需要/能够使用FC缓存区到缓存区的信用机制来管理队列? 答:在FCoE要求的无损耗以太网中,FC缓存区到缓存区的信用机制会替换为基于优先级的流量控制(或按优先级暂停). AUSE与信用机制的高可用性问:PAUSE与信用机制之间是否存在一些"高可用性"区别? 答:PAUSE或信用机制在高可用性方面并无区别.如果交换机出现故障,那么交换机临时存储的所有数据帧都会丢失,而与信用机制或是PAUSE无关.如果丢

《思科数据中心I/O整合》一2.15 术语

2.15 术语 思科数据中心I/O整合本章讨论的以太网扩展可以按照不同的名称进行分组. 数据中心桥接(DCB)指的是IEEE 802.1的标准化活动.IEEE 802.1 DCB工作小组正在开发的项目包括: 基于优先级的流量控制: 带宽管理: 配置(DCBX): 拥塞通知. DCB标准已提交到IEEE,但是仍未被批准为标准,所以现在被称为DCB v0(版本0),而且有一些供应商已经及时推出了一些可兼容DCB v0的产品. 术语聚合增强以太网(CEE)和数据中心以太网(DCE)还可用于将这些技术按

《思科数据中心I/O整合》一2.9 其他组件

2.9 其他组件 思科数据中心I/O整合我们目前讨论的是实现I/O整合所需要的基本组件,其他还有一些技术可以帮助实现更大规模的I/O整合部署.在下一节中,我们将介绍以下组件: 发现协议(例如,DCBX):带宽管理器(例如,ETS):拥塞管理(例如,BCN/ QCN).DCBX:数据中心桥接交换DCBX的名称来自于IEEE 802.1数据中心桥接工作小组,它涉及文档中所描述的大多数以太网扩展.DCBX是数据中心桥接的管理协议,由IEEE 802.1Qaz项目定义.DCBX是链路层发现协议(LLDP

《思科数据中心I/O整合》一导读

前 言 思科数据中心I/O整合本书主要介绍Nuova Systems与思科(两家公司)在2006年至2007年完成的以太网向数据中心网络的演进工作.本书介绍的技术已经得到了行业认可,从2008年开始,它们开始逐渐形成产品与(行业)标准. 其中,FC-BB-5标准,定义了以太网光纤通道(FCoE协议),2009年6月4日通过了信息技术标准国际委员会(INCITS)T11光纤通道委员会的批准,转交给INCITS发布,成为一个美国国家标准机构(ANSI)的标准.本书主要反映FCoE标准. 本书从教学角