《VMware Virtual SAN权威指南(原书第2版)》一3.7 设计考量:分布式交换机和网络I/O控制

3.7 设计考量:分布式交换机和网络I/O控制

为了提供服务质量(QoS)和性能的可预测性,VSAN和NIOC应该携手共进。在讨论配置选项之前,下列网络类型应该列入考虑范围内:
管理网络
vMotion网络
Virtual SAN网络
虚拟机网络
这个设计考量假设为了可用性已经准备好了万兆的冗余网络连接和一对冗余的交换机。基于使用的网络交换机类型的不同,我们将描述两个场景:
1.不具备链路聚合能力的冗余万兆以太网交换机配置。
2.具备链路聚合能力的冗余万兆以太网交换机配置。
链路聚合(IEEE 802.3ad)使得用户可以在网络设备之间用多条链路来进行连接。它将多条物理连接捆绑成一条逻辑连接,并提供某种程度的冗余性和带宽提升。
对于这两种配置,都建议创建以下端口组和VMkernel接口:
1个管理网络VMkernel接口
1个vMotion VMkernel接口(所有接口都在同一个子网内)
1个VSAN VMkernel接口
1个虚拟机端口组
为了简化配置,应该创建单个VSAN和vMotion的VMkernel接口。
为了保证不同类型的流量分别在不同的物理端口上传输,我们将利用标准分布式交换机的能力。接下去我们还会告诉你如何使用份额(share)来避免“嘈杂的邻居”。
场景1:不具备“链路聚合”能力的冗余万兆以太网交换机
在这个配置中有两个独立的万兆以太网上行链路。出于简单性的理由,建议把流量分隔并将一条万兆以太网上行链路专用于VSAN。下面是每种流量类型推荐的最小带宽:
管理网络:1GbE
vMotion VMkernel接口:5GbE
虚拟机网络:2GbE
VSAN VMkernel接口:10GbE
不同的流量类型将共享同一条上行链路。管理网络、虚拟机网络和vMotion网络流量配置成共享上行链路1,而VSAN流量配置成使用上行链路2。通过这种网络配置方式,在VSAN群集处于正常或标准的运行状态下时,所有不同类型的流量都会获得足够的带宽。
为了保证没有一种流量类型会在竞争发生的时候影响其他流量类型,需要配置NIOC并设置份额管理机制。
在这个场景的练习中,当定义流量类型的网络份额(shares)时,假设只有一个物理端口可用,且所有流量类型共享同这一个物理端口。
这个场景还使用了最坏情况法来进行考量——即在故障发生时,也能保证性能。通过这种方法,我们可以确保VSAN始终拥有50%的带宽,同时还给其余流量类型提供足够的带宽,以避免自己引发的可能的拒绝服务攻击。
表3-1列出了不同流量类型推荐配置的份额值。

在为不同类型的流量选择上行链路的时候,应该把不同类型的流量相互隔离,以提供可预见性,同时避免“嘈杂的邻居”的干扰。建议进行以下配置:
管理网络VMkernel接口=使用明确故障切换顺序=上行链路1活动/上行链路2备用
vMotion VMkernel接口=使用明确故障切换顺序=上行链路1活动/上行链路2备用
虚拟机端口组=使用明确故障切换顺序=上行链路1活动/上行链路2备用
Virtual SAN VMkernel接口=使用明确故障切换顺序=上行链路2活动/上行链路1备用
为了拥有可预见性,建议在Teaming and failover部分选择Use explicit failover order(使用明确故障切换顺序)选项(见图3-16)。这个选项——明确故障切换顺序——始终使用活动适配器列表中排在最前面的那条上行链路来传递故障切换检测条件。

将流量分隔开可以优化存储性能,同时也能给vMotion和虚拟机流量提供足够的带宽(见图3-17)。尽管使用“基于负载的绑定”(LBT,Load Based Teaming)机制也能实现,但是请注意,LBT负载均衡周期是30秒,这在共享的上行链路出现“突发”流量的时候可能会引起短时间的拥堵。此外请注意,在进行网络故障排错的时候,它可能会在跟踪物理网卡端口和VMkernel接口之间的关系方面造成一些困难。因此,这个方法也在网络配置上提供了一种简洁性。

场景2:具备“链路聚合”能力的冗余的万兆以太网交换机
在这种场景下,两条万兆以太网上行链路配置成一种捆绑的方式(常称为EtherChannel或链路聚合)。因为物理交换机具备这样的功能,所以虚拟层面的配置便极其简单。我们仍然以前面推荐的最低带宽作为设计的考量因素:
管理网络:1GbE
vMotion VMkernel接口:5GbE
虚拟机端口组:2GbE
VSAN VMkernel接口:10GbE
当物理上行链路捆绑(链路聚合)之后,要求分布式交换机的负载均衡机制配置成下面两种选择之一:
IP哈希
LACP——链路聚合控制协议(Link Aggregation Control Protocol)
IP哈希是一个负载均衡配置的可选项,是配置在那些连接到多个上行链路的VMkernel接口上的。上行链路的选择是基于每个数据包源和目的IP地址的哈希做出的。对于非IP数据包,不管数据包内是什么内容,和IP地址位置相同的那些数值会用来计算哈希。
vSphere 5.5及更高版本的分布式交换机支持LACP。这个特性使你可以用动态链路聚合的方法把ESXi主机和物理交换机连接起来。链路聚合组(Link Aggregation Group,LAG)是在分布式交换机上创建出来的,它们把ESXi主机上的物理网卡的带宽聚合起来,并依次连接到LACP端口通道(Port Channel)。
LACP支持是从vSphere分布式交换机版本5.1开始引入的,到版本5.5功能得到了增强。如果你正在使用的版本较早,则应该至少升级到版本5.5。
要获得IP哈希和LACP支持的更多细节,可以参考官方的vSphere联网指南。
根据所使用的不同物理交换机的类型,建议将所有的端口组和VMkernel接口配置成LACP或IP哈希两种配置之一:
管理网络VMkernel接口= LACP / IP哈希
vMotion VMkernel接口= LACP / IP哈希
虚拟机端口组= LACP / IP哈希
VSAN VMkernel接口= LACP / IP哈希
因为不同的流量类型会共享同一条上行链路,所以你也会希望能确保在拥堵的情况下,不会发生某一种类型的流量排挤其他类型流量的情况。为了这个目的,我们将再次使用NIOC份额机制。
在和前面相同的假设条件下——只有一个可用物理端口并且所有流量类型都共享这同一个物理端口,我们再次用最坏情况法来考虑。这个方法确保了即使发生故障也能保证性能。通过这种方法,我们可以确保VSAN始终能获得50%的带宽并同时能给其他类型的流量留出足够的带宽,以避免自己引发的可能的拒绝服务攻击。
当两条上行链路都可用时,VSAN得到的带宽相当于10GbE。当只有一条上行链路可用时(由于网卡故障或者维护的原因),可用带宽减半,相当于5GbE带宽。
表3-2列出了不同流量类型推荐配置的份额值。

这里讨论的两种场景都应该可以给你的VSAN群集提供一个优化的网络配置。

时间: 2024-10-22 08:55:42

《VMware Virtual SAN权威指南(原书第2版)》一3.7 设计考量:分布式交换机和网络I/O控制的相关文章

《VMware Virtual SAN权威指南(原书第2版)》一导读

前 言 说到虚拟化及其依赖的底层基础架构,经常会提起一个组件--存储.原因相当简单:在很多环境中,存储是痛点.尽管存储市场已经因为闪存技术的引入发生了变化,很多传统的存储问题得到了缓解,但是很多机构还没能采纳这些新的架构,因而仍然会遇到挑战. 存储问题的范围包括运营上的复杂性到性能问题甚至是可用性的限制.这些问题中的大部分都起因于同样的根本问题:老旧的系统架构.这是因为大多数存储平台架构是在虚拟化技术出现之前开发出来的,而虚拟化已经改变了使用这些共享存储平台的方法. 某种程度上,可以说是虚拟化迫

《VMware Virtual SAN权威指南》一导读

前 言 说到虚拟化及其依赖的底层基础架构,经常会提起一个组件--存储.原因相当简单:在很多环境中,存储是痛点.尽管存储市场已经因为闪存技术的引入发生了变化,很多传统的存储问题得到了缓解,但是很多机构还没能采纳这些新的架构,因而仍然会遇到挑战.存储问题的范围包括运营上的复杂性到性能问题甚至是可用性的限制.这些问题中的大部分都起因于同样的根本问题:老旧的系统架构.这是因为大多数存储平台架构是在虚拟化技术出现之前开发出来的,而虚拟化已经改变了使用这些共享存储平台的方法.某种程度上,可以说是虚拟化迫使存

《VMware Virtual SAN权威指南》一3.7 设计考量:分布式交换机和网络I/O控制

3.7 设计考量:分布式交换机和网络I/O控制 为了提供服务质量(QoS)和性能的可预测性,VSAN和NIOC应该携手共进.在讨论配置选项之前,下列网络类型应该列入考虑范围内:管理网络vMotion网络Virtual SAN网络虚拟机网络这个设计考量假设为了可用性已经准备好了万兆的冗余网络连接和一对冗余的交换机.基于使用的网络交换机类型的不同,我们将描述两个场景:1.?不具备链路聚合能力的冗余万兆以太网交换机配置.2.?具备链路聚合能力的冗余万兆以太网交换机配置.链路聚合(IEEE 802.3a

《VMware Virtual SAN权威指南(原书第2版)》一2.3 网络要求

2.3 网络要求 这一节将从网络角度探讨VSAN的需求和前提条件.VSAN是一种分布式的存储解决方案,因此它对主机之间的通信网络非常倚重,其关键是稳定性和可靠性. 2.3.1 网络接口卡 每台ESXi主机必须至少具有一块千兆以太网络接口卡专用于VSAN混合配置,而全闪存配置必须使用万兆网卡.然而,作为最佳实践,VMware和本书作者都推荐使用万兆网卡.出于冗余的考虑,可以在每一台主机上都配置网卡绑定.我们认为这是最佳实践,但这并不是构建一个完整功能的VSAN群集所必需的. 2.3.2 受支持的虚

《VMware Virtual SAN权威指南(原书第2版)》一3.3 VSAN网络配置之VMware标准交换机

3.3 VSAN网络配置之VMware标准交换机 通过VMware标准交换机创建一个用于VSAN网络流量的端口组是相对简单的.在安装ESXi主机的时候,一个VMware标准交换机已经自动创建,并用来承载ESXi网络管理流量和虚拟机流量.可以使用这个现存的标准交换机以及与之关联的与外部网络通信的上行链路来创建一个用于VSAN流量的新的VMkernel端口.或者可以选择为VSAN网络流量的VMkernel端口创建一个新的标准交换机(见图3-2),并为它选择一些新的上行链路. 在这个例子中,我们已经决

《VMware Virtual SAN权威指南(原书第2版)》一3.4 VSAN网络配置之vSphere分布式交换机

3.4 VSAN网络配置之vSphere分布式交换机 VSAN要使用VDS,需要配置一个分布式端口组来承载VSAN流量.创建分布式端口组后,就可以在独立的ESXi主机上创建VMkernel接口来使用这个分布式端口组.接下来将详细描述这个过程. 第1步:创建分布式交换机 尽管VMware官方文档中没有明确指出应该使用哪个版本的分布式交换机,但是我们建议为VSAN创建最新版本的分布式交换机,这是笔者进行VSAN测试时用的版本.注意,当选定分布式交换机版本之后,所有连接到这个VDS的ESXi主机都必须

《VMware Virtual SAN权威指南(原书第2版)》一1.5 什么是Virtual SAN

1.5 什么是Virtual SAN Virtual SAN是VMware推出的一种存储解决方案,它的beta版本在2013年发布,2014年3月正式开放给公众,并于2016年3月升级到6.2版.VSAN完全集成在vSphere中,它是一种基于对象的存储系统,是虚拟机存储策略的平台,这种存储策略的目标是为了帮助vSphere管理员简化虚拟机的存储放置决策.它完全支持并与vSphere的核心特性,诸如vSphere高可用性(HA).分布式资源调度(DRS)以及vMotion等深度集成在一起,参见图

《VMware Virtual SAN权威指南(原书第2版)》一1.1 软件定义的数据中心

1.1 软件定义的数据中心 在2012年VMware的年度大会VMworld上,VMware分享了对于软件定义的数据中心(software-def?ined datacenter,SDDC)的愿景.SDDC是VMware的公有云和私有云的架构,在其中将数据中心所有的重要组成部分--计算.存储.网络以及相关的服务全部都进行虚拟化.将数据中心的各个组件虚拟化使得IT团队更加灵活,降低了运营的复杂性,减少了成本,并同时增加了可用性和敏捷性,最终将大大缩短把新服务投向市场的时间. 要达到这些目的,仅仅是

《VMware Virtual SAN权威指南(原书第2版)》一3.6 网络I/O控制配置示例

3.6 网络I/O控制配置示例 如前所述,网络I/O控制(NIOC)可以用来保证VSAN群集的通信和I/O传输所需的带宽.只有在vSphere分布式交换机(VDS)中才能配置NIOC,而在VMware标准交换机(VSS)中是不支持的.VDS的确只在某些高版本的vSphere中才提供,不过VSAN已经包含了VDS,而不管你使用的是哪个版本的vSphere.如果你正在使用的分布式交换机版本早于vSphere版本,为了使用VSAN,我们建议你把它升级到最新版本,虽然vSphere的文档中没有特别指出这