生成树的冗余与负载分担技术

  
交换层有三个地方涉及到冗余与负载分担,分别是生成树、EC以太网通道、FHRP网关协议。本文关于生成树相关的实现技术。生成树(包括stp、rstp、mstp)的三层主要功能由低至高分别为:防环收敛、冗余备份、负载均衡。首先说明,冗余与负载分担是两个概念。冗余往往与备份是联系在一起的,单纯有冗余技术并不一定能实现负载分担。而负载分担技术是依赖于冗余的。

1、STP(Spanning-Tree Protocol)

  
STP协议生来就是为了冗余而存在的,单纯树型的网络无法提供足够的可靠性,由此我们引入了额外的链路,这才出现了环路这样的问题。但单纯是标准的802.1D
STP协议并不能实现真正的冗余与负载分担。

  
STP为IEEE 802.1D标准,它内部只有一棵STP
tree,因此必然有一条链路要被blocking,不会转发数据,只有另外一条链路出现问题时,这条被blocking的链路才会接替之前链路所承担的职责,做数据的转发。无论怎样,总会有一条链路处于不被使用的状态,冗余是有了,但是负载分担是不可想象的。

  
cisco对STP做了改进,它使得每个VLAN都运行一棵stp tree,这样第一条链路可以为vlan 1 2 3服务,对vlan 4
5 6 blocking,第二条链路可以为vlan 4 5 6 forwarding,对vlan 1 2
3关闭,无形中实现了链路的冗余,负载分担。这种技术被称之为PVST+。

  
随着网络的发展,人们发现传统的STP协议无法满足主备快速切换的需求,因为STP协议将端口定义了5种状态,分别为:blocking
listening learning forwarding
disabling,想要从blocking切换至forwarding状态,必需要经过50秒的周期,这50秒我们只能被动地去等待。20秒的blocking状态下,如果没有检测到邻居发来的BPDU包,则进入listening,这时要做的是选举Root
Bridge、Designate Port、Root
Port,15秒后,进入learning,learning状态下可以学习MAC地址,为最后的forwarding做准备,同样是15秒,最后到达转发状态。这样的延时在现代网络环境下是让人极为难以忍受的。

2、RSTP(802.1w)
  
RSTP的出现解决了延时的问题,它的收敛速度很快,当然CISCO也针对这种技术推出了自已的RPVST+技术。RSTP在STP基础上额外定义了两种port
role(注意这里的概念,端口角色)
,分别是alternate与backup。另外重新规定了port
state(端口状态),分别为discarding、Learning、Forwarding.
 

   STP的一大失败之处在于混淆了port
role与port state两种概念,在RSTP上,这样的问题不再存在了,port state与port
role无关了。alternate port责任是为另一台交换机上的链路作备份,而backup
port是为本交换机上的端口作备。

 7  6  5  4  3  2  1  0
TC Proposal Port- role learning forwarding Agreement TCA

  
RSTP最重要的变化在于对BPDU中type字段的利用上,之前STP只使用了其中的两个位,另外6个位中实现了很多的功能,包括不再需要去等待50秒的时间完成主备切换,直接利用proposal与agreement协商即可,这样大大缩短了收敛时间。

   RSTP还定义了两个新的概念:edge
port与link type,如果是edge
port,表明下面接的只能是主机,环路的存在是不可能的,所以我们可以直接将其从discarding切换到forwarding状态,类似于STP中的port
fast技术。而link
type定义了这条链路是point-to-point的还是shared。如果有pt-pt环境下,我们就可以做快速的切换了。

3、MSTP(802.1s)

  
STP和RSTP都采用了一棵STP
tree,负载分担不可实现,而CISCO的PVST+与RPVST+采用了每个VLAN一棵生成树,虽然实现了负载分担,但是会占用非常多的CPU时间。这也正是MSTP(802.1s)产生的原因。

  
MSTP可以将多个VLAN的生成树映射为一个实例,即vlan map to a
instance,我们不需要那么多的生成树,只需要按照冗余链路的条数来得出需要几棵生成树。

  
如果只有两条链路,并且有1-1000个VLAN,我们可以将1-500定义为instance
1,将501-1000定义到instance 2。只生成两棵树1和2,同样实现了冗余与负载分担。

MSTP是基于RSTP的,没有RSTP,MSTP是无法运行的。

另:

PVST+ 与 RPVST+ 模式下:交换机可支持128个STP instance。

MSTP模式下:交换机可支持65个MST instance,当然每个实例中的VLAN数目是无限的。

4.Ether channel

  
其实channel技术不仅仅是接口的绑定,通常当我们骨干链路带宽不足的时候,可能会想到绑定多条链路,这时候自然会用到ether-channel技
术,它把多条物理接口绑定为一个逻辑接口,最多可绑定8个接口,实现1600G的带宽绑定效果。但是实际上数据的传输过程中仍然是通过物理的接口来转发的。这就为我们做负载分担又提出了一种方案。我们可以根据源、目的IP地址来做负载分担,也就是一条会话。第一条会话走第1个接口,第2条会话自动切换到第2个物理接口去做转发。。。。。。这样就不会使大量的数据都通过物理接口1来做转发了。

   Ether
Channel可以通过手动指定,当然也可以动态形成,这就需要提到另外两种技术,一种是思科私有的PAGP,另外一种是IEEE标准的LACP(802.3ad),我们只需要注意他们的协商方式。

接口模式:on、desirable、auto:

  
配置为on时,表示不接受PAGP的动态协商,要完全手工指定,也就是两端必须一致配置为on模式,否则无法绑定。

  
desirable表示主动协商,如对端为desirable或auto都可形成channel。

  
auto表示被动协商,如果对端为auto,就无法形成channel,这时必须对端为desirable。

  
这其实很好理解,但是为什么要注意它,是因为我们在trunk的建立时,也有几种类似的模式,而trunk中的这几种模式非常混乱,无论如何都能动态协商成功,比如on和desirable是可以协商成功的。

  
LACP的接口模式有PAGE不同,但是意义类似它们分别是:on、off、passive、active。

时间: 2025-01-24 00:30:51

生成树的冗余与负载分担技术的相关文章

天网防火墙负载分担技术

1. 负载分担 大型服务节点的解决方案 拥有大量的访问量和用户是信息服务提供者的目标,但是大量的访问会给服务器带来沉重的负担,随着出色的Internet应用服务的用户人数不断增加,服务器变得不胜负荷,如果无法及时处理大量的用户服务请求,将出现服务中断的情况.以往在解决这些问题的时候,只能采用更强计算能力的服务器来替换原来的服务器,旧的服务器只能淘汰掉.即使这样,单台服务器的负载能力也是有限的,不可能无限扩展,同时,高档服务器的价格是随着服务器的性能呈现指数型上升,因此,采用多台廉价服务器组成负载

高负载Web站点负载均衡技术的应用

Internet的快速增长使多媒体网络服务器,特别是http://www.aliyun.com/zixun/aggregation/17117.html">Web服务器,面对的访问者数量快速增加,网络服务器需要具备提供大量并发访问服务的能力.例如Yahoo每天会收到数百万次的访问请求,因此对于提供大负载Web服务的服务器来讲,CPU.I/O处理能力很快会成为瓶颈. 在有些大型网络,由于多个服务器群内硬件设备.各自的规模.提供的服务等的差异,我们可以考虑给每个服务器群采用最合适的负载均衡方式

H3C S系列三层交换机负载分担、链路备份的实现过程

实验背景: 随着公司规模的不断扩大,网络部门同时申请了两根光纤,其中一根为10M,另外一根为20M,由于带宽不对称,要求在三层交换机上做策略路由实现2:1的流量分配,其次要求两条线路互相备份,从而实现公司网络安全可靠的传输. 实验网络拓扑图: 配置说明: 由于S系列三层交换机暂不支持基于用户的负载分担特性,可以使用策略路由.静态路由和NQA自动侦测实现负载分担和链路备份功能. 原理说明: 原理: NQA是一种实时的网络性能探测和统计技术,可以对响应时间.网络抖动.丢包率等网络信息进行统计.NQA

门户网站负载均衡技术的六大新挑战

得上大学时,我和好友老郭讨论最多的话题便是:"像新浪这样的网站是如何支撑如此巨大的访问量?"也曾通过各种手段,猜测新浪服务器的数量.操作系统和应用软件的版本--一切都是那么神秘.毕业那年,有幸加入新浪,终于一点点地揭开了这层神秘的面纱.2004年某厂商设备介绍会上,我初次接触到了负载均衡技术.之后的几年时间,可以说是负载均衡设备在网站推广的黄金爆发期. 发展到今天,一方面硬件设备依然保持了强劲的实力,另一方面以LVS.Haproxy为代表的软件负载均衡也异军突起,被人们所认可.在新浪,

Windows Server 2003网络负载平衡技术的实现方法

在现行的许多网络应用中,有时一台服务器往往不能满足客户端的要求,此时只能通过增加服务器来http://www.aliyun.com/zixun/aggregation/7432.html">解决问题. 那么,有没有一个办法或者技术来解决此类问题呢?使用Windows 2000或Windows Server 2003中的网络负载平衡群集就可以(本文将介绍Windows Server 2003中的网络负载平衡技术的实现方法). 一.网络负载平衡的优点 1.网络负载平衡允许你将传入的请求传播到最

新手入门:网络负载平衡技术介绍

&http://www.aliyun.com/zixun/aggregation/37954.html">nbsp;   网络负载平衡允许你将传入的请求传播到最多达32台的服务器上,即可以使用最多32台服务器共同分担对外的网络请求服务. 网络负载平衡技术保证即使是在负载很重的情况下它们也能作出快速响应.网络负载平衡对外只须提供一个IP地址(或域名).如果网络负载平衡中的一台或几台服务器不可用时,服务不会中断. 网络负载平衡自动检测到服务器不可用时,能够迅速在剩余的服务器中重新指派客

门户网站负载均衡技术的六大新挑战,互联网营销

文 / 李晓栋 记得上大学时,我和好友老郭讨论最多的话题便是:"像新浪这样的网站是如何支撑如此巨大的访问量?"也曾通过各种手段,猜测新浪服务器的数量.操作系统和应用软件的版本--一切都是那么神秘.毕业那年,有幸加入新浪,终于一点点地揭开了这层神秘的面纱.2004年某厂商设备介绍会上,我初次接触到了负载均衡技术.之后的几年时间,可以说是负载均衡设备在网站推广的黄金爆发期. 发展到今天,一方面硬件设备依然保持了强劲的实力,另一方面以LVS.Haproxy为代表的软件负载均衡也异军突起,被人

服务器集群中的负载均衡技术深入讲解

&http://www.aliyun.com/zixun/aggregation/37954.html">nbsp;   由于目前现有网络的各个核心部分随着业务量的提高,访问量和数据流量的快速增长,其处理能力和计算强度也相应地增大,使得单一的服务器设备根本无法承担.在此情况下,如果扔掉现有设备去做大量的硬件升级,这样将造成现有资源的浪费,而且如果再面临下一次业务量的提升时,这又将导致再一次硬件升级的高额成本投入,甚至性能再卓越的设备也不能满足当前业务量增长的需求.  针对此情况而衍

基于策略路由负载分担应用

介绍 特性简介 目前网吧对网络的可靠性和稳定性要求越来越高,一般网吧与运营商都有两条线路保证一条线路出现 故障时能够有另一条链路作为备份.当两条线路都正常时为了减少一条线路流量压力,将流量平均分配到 另外一条线路,这样提高了网络速度.当一条链路出现故障接口DOWN掉时,系统自动将流量全部转到另一 条线路转发,这样提高了网络的稳定性.可靠性.满足网吧对业务要求不能中断这种需求,确保承载的业 务不受影响. 使用指南 使用场合 本特性可以用在双链路的组网环境内,两条链路分担流量.保证了网络的可靠性.稳