《VMware Virtual SAN权威指南(原书第2版)》一2.3 网络要求

2.3 网络要求

这一节将从网络角度探讨VSAN的需求和前提条件。VSAN是一种分布式的存储解决方案,因此它对主机之间的通信网络非常倚重,其关键是稳定性和可靠性。

2.3.1 网络接口卡

每台ESXi主机必须至少具有一块千兆以太网络接口卡专用于VSAN混合配置,而全闪存配置必须使用万兆网卡。然而,作为最佳实践,VMware和本书作者都推荐使用万兆网卡。出于冗余的考虑,可以在每一台主机上都配置网卡绑定。我们认为这是最佳实践,但这并不是构建一个完整功能的VSAN群集所必需的。

2.3.2 受支持的虚拟交换机类型

无论是VMware vSphere Distributed Switch?(VDS)还是VMware标准交换机(VSS)均支持VSAN。使用分布式交换机具有一些优点,这在第3章会详细介绍。其他类型的虚拟交换机类型未被仔细测试过是否可以用于VSAN。VDS的许可证已包含在VSAN之中。

2.3.3 二层或三层

VSAN支持二层(交换)或三层(路由)网络。最初的发布版本并不支持三层网络,不过到6.0版就完全支持了。必须强调VSAN依赖组播通信,这意味着不管是二层还是三层都必须允许组播流量通过,对于三层来说,还意味着组播流量必须能在网络间被路由。我们注意到在过去的2年间我们和客户的很多对话都提到了三层组播通常默认是不开启的,因此记得在配置之前要先和网络团队沟通好。

2.3.4 VMkernel网络

在每台想要加入VSAN群集的ESXi主机上,都必须创建一个用于VSAN通信的VMkernel端口。这个标记为Virtual SAN Traff?ic(虚拟SAN流量)的VMkernel端口是自vSphere 5.5中新出现的类型。这个端口用于群集内节点之间的通信,并且当一个特定的虚拟机运行在某一台ESXi主机上而构成这台虚拟机的文件的真正数据块又落在群集中另外一台ESXi主机上的时候,这个端口也用于读和写操作。在这种情况下,I/O将通过群集内主机间的网络传递,如图2-4所示,VMkernel接口vmk2用于VSAN群集内所有主机之间的VSAN流量传输,位于esxi-01上的虚拟机所有的读和写操作都要用到VSAN网络。

2.3.5 VSAN网络流量

VSAN使用的协议是个专有协议。就像VMware的vMotion、Fault Tolerance、vSphere Replication以及其他VMware专有协议等其他VMware产品和特性一样,VMware没有公布这个协议的规范。VSAN网络用于3种不同的流量类型,由于这些流量带来了对物理网络交换机配置的一些要求,所以了解清楚它们是怎么回事是很重要的。
组播心跳(Multicast heartbeat)——这类流量用来发现加入到群集中的所有主机,并且判断主机状态。和其他类型的流量相比,组播心跳只产生非常少的数据包。
来自群集服务(CMMDS)的组播和单播数据包——这类流量进行元数据(例如对象放置和统计信息)的更新。它比心跳产生的网络流量多一些,但是仍然只占非常小的百分比。
存储流量(例如读和写)——这是网络流量的主要部分。群集中任何主机和其他主机的通信都是通过单播进行的。
为了保证VSAN主机可以正常通信,要求物理交换机允许组播的流量。如果VSAN群集中的ESXi主机之间无法通过VSAN流量网络进行组播通信,VSAN群集将无法正确形成。
组播是一个关键的组成部分,尽管它仅占整个网络流量中很小的比例。由于存储的读写I/O都要经过网络,VSAN群集中大部分流量都是存储流量,保证最优的网络带宽是非常重要的。如果可能不要使用那些把组播流量转换成广播流量方式传输的低端交换机,VMware建议使用真正支持组播流量的物理交换机。

2.3.6 巨型帧

VSAN网络支持巨型帧(jumbo frame)。我们相信,每个VSAN部署都是不同的,不管是从服务器硬件的角度来看还是从网络硬件的角度来说都是如此。正因为如此,很难说应该推荐使用还是反对使用巨型帧。此外,在非全新配置的环境中实施巨型帧会带来一些运营上的影响。如果巨型帧的配置没能从端到端保持一致,就可能出现网络故障。我们曾做过一些测试试图证明巨型帧的优点,但是目前还未得出结论。在某些场景下测得的性能提升了15%同时也观察到了CPU使用率的下降;在另外一些场景中没有测得性能的提升和CPU使用率的下降。
在一个成熟运营的环境中,在一致的配置可以得到保证的前提下,管理员可自行决定是否采用巨型帧。

2.3.7 网卡绑定

另一个优化网络性能的可行方法是捆绑网络接口卡。ESXi主机上的网络接口卡绑定对VSAN是透明的。网卡绑定有很多种不同的方式。为了使VSAN可以利用多个物理网卡端口,可以实施物理绑定(LACP)或者创建多个VSAN VMkernel接口。第3章将深入探讨配置的细节及各个参数。然而,要注意的是,无法保证VSAN网络流量是否能在同一时间内完全利用多个物理网卡的全部带宽,影响的因素很多,包括群集的大小、网卡的数量和不同IP地址的数量。

2.3.8 网络I/O控制

尽管建议使用万兆网卡,但是并非要将这些万兆网卡仅仅专用于VSAN网络,它们是可以与其他网络流量共享的。然而,你可能需要考虑使用网络I/O控制(NIOC)来保证在网络拥堵的情况下VSAN流量仍能获得一定数量的网络带宽。尤其是当这块万兆网卡和诸如vMotion之类的流量共享时,因为声名狼藉的vMotion可是会在任何可能的情况下吃掉所有带宽的哦。使用NIOC必须创建分布式交换机(VDS),因为它不支持标准交换机(VSS)。幸运的是,分布式交换机已经包含在VSAN许可证中了。
第3章会列举各种例子来说明在不同类型的网络配置的情况下应该怎样配置NIOC。

时间: 2024-12-31 16:16:49

《VMware Virtual SAN权威指南(原书第2版)》一2.3 网络要求的相关文章

《VMware Virtual SAN权威指南(原书第2版)》一导读

前 言 说到虚拟化及其依赖的底层基础架构,经常会提起一个组件--存储.原因相当简单:在很多环境中,存储是痛点.尽管存储市场已经因为闪存技术的引入发生了变化,很多传统的存储问题得到了缓解,但是很多机构还没能采纳这些新的架构,因而仍然会遇到挑战. 存储问题的范围包括运营上的复杂性到性能问题甚至是可用性的限制.这些问题中的大部分都起因于同样的根本问题:老旧的系统架构.这是因为大多数存储平台架构是在虚拟化技术出现之前开发出来的,而虚拟化已经改变了使用这些共享存储平台的方法. 某种程度上,可以说是虚拟化迫

《VMware Virtual SAN权威指南(原书第2版)》一3.3 VSAN网络配置之VMware标准交换机

3.3 VSAN网络配置之VMware标准交换机 通过VMware标准交换机创建一个用于VSAN网络流量的端口组是相对简单的.在安装ESXi主机的时候,一个VMware标准交换机已经自动创建,并用来承载ESXi网络管理流量和虚拟机流量.可以使用这个现存的标准交换机以及与之关联的与外部网络通信的上行链路来创建一个用于VSAN流量的新的VMkernel端口.或者可以选择为VSAN网络流量的VMkernel端口创建一个新的标准交换机(见图3-2),并为它选择一些新的上行链路. 在这个例子中,我们已经决

《VMware Virtual SAN权威指南(原书第2版)》一3.4 VSAN网络配置之vSphere分布式交换机

3.4 VSAN网络配置之vSphere分布式交换机 VSAN要使用VDS,需要配置一个分布式端口组来承载VSAN流量.创建分布式端口组后,就可以在独立的ESXi主机上创建VMkernel接口来使用这个分布式端口组.接下来将详细描述这个过程. 第1步:创建分布式交换机 尽管VMware官方文档中没有明确指出应该使用哪个版本的分布式交换机,但是我们建议为VSAN创建最新版本的分布式交换机,这是笔者进行VSAN测试时用的版本.注意,当选定分布式交换机版本之后,所有连接到这个VDS的ESXi主机都必须

《VMware Virtual SAN权威指南(原书第2版)》一1.5 什么是Virtual SAN

1.5 什么是Virtual SAN Virtual SAN是VMware推出的一种存储解决方案,它的beta版本在2013年发布,2014年3月正式开放给公众,并于2016年3月升级到6.2版.VSAN完全集成在vSphere中,它是一种基于对象的存储系统,是虚拟机存储策略的平台,这种存储策略的目标是为了帮助vSphere管理员简化虚拟机的存储放置决策.它完全支持并与vSphere的核心特性,诸如vSphere高可用性(HA).分布式资源调度(DRS)以及vMotion等深度集成在一起,参见图

《VMware Virtual SAN权威指南(原书第2版)》一1.1 软件定义的数据中心

1.1 软件定义的数据中心 在2012年VMware的年度大会VMworld上,VMware分享了对于软件定义的数据中心(software-def?ined datacenter,SDDC)的愿景.SDDC是VMware的公有云和私有云的架构,在其中将数据中心所有的重要组成部分--计算.存储.网络以及相关的服务全部都进行虚拟化.将数据中心的各个组件虚拟化使得IT团队更加灵活,降低了运营的复杂性,减少了成本,并同时增加了可用性和敏捷性,最终将大大缩短把新服务投向市场的时间. 要达到这些目的,仅仅是

《VMware Virtual SAN权威指南(原书第2版)》一3.6 网络I/O控制配置示例

3.6 网络I/O控制配置示例 如前所述,网络I/O控制(NIOC)可以用来保证VSAN群集的通信和I/O传输所需的带宽.只有在vSphere分布式交换机(VDS)中才能配置NIOC,而在VMware标准交换机(VSS)中是不支持的.VDS的确只在某些高版本的vSphere中才提供,不过VSAN已经包含了VDS,而不管你使用的是哪个版本的vSphere.如果你正在使用的分布式交换机版本早于vSphere版本,为了使用VSAN,我们建议你把它升级到最新版本,虽然vSphere的文档中没有特别指出这

《VMware Virtual SAN权威指南(原书第2版)》一3.7 设计考量:分布式交换机和网络I/O控制

3.7 设计考量:分布式交换机和网络I/O控制 为了提供服务质量(QoS)和性能的可预测性,VSAN和NIOC应该携手共进.在讨论配置选项之前,下列网络类型应该列入考虑范围内:管理网络vMotion网络Virtual SAN网络虚拟机网络这个设计考量假设为了可用性已经准备好了万兆的冗余网络连接和一对冗余的交换机.基于使用的网络交换机类型的不同,我们将描述两个场景:1.不具备链路聚合能力的冗余万兆以太网交换机配置.2.具备链路聚合能力的冗余万兆以太网交换机配置.链路聚合(IEEE 802.3ad)

《VMware Virtual SAN权威指南(原书第2版)》一3.2 为VSAN服务的VMkernel网络

3.2 为VSAN服务的VMkernel网络 所有参与VSAN网络的ESXi主机都需要相互通信.vSphere 5.5引入了一个新的VMkernel类型,叫做Virtual SAN Traff?ic(虚拟SAN流量).只有当VSAN VMkernel端口在加入到VSAN群集的每一台ESXi主机上都存在的时候,VSAN群集才会成功构建起来.在构建VSAN群集之前,vSphere管理员必须在每一台群集内的ESXi主机上都创建一个VSAN VMkernel端口(参见图3-1). 如果VSAN没有VMk

《VMware Virtual SAN权威指南(原书第2版)》一1.7 小结

1.7 小结 总结一下,vSphere Virtual SAN(VSAN)是一个市场领先的基于hypervisor的分布式存储平台,它汇聚了计算和存储资源,因此常被称为超融合软件.它使你得以通过基于策略的管理来定义以虚拟机为粒度的服务水平目标,并使你得以用一种前无古人的简单且高效的方法来控制可用性和性能.初窥皮毛之后,是时候进一步进行探讨了.第2章将描述安装和配置VSAN所需的前提条件.