《VMware Virtual SAN权威指南》一2.1.1 ESXi

2.1.1 ESXi

VMware ESXi是一个企业级虚拟化产品,它允许你在一台独立的服务器上以完全相互隔离的方式运行一个操作系统的多个实例。它是一个裸设备的解决方案,这意味着它无须借助客户操作系统并且自身所占的空间极小。ESXi是当今世界上绝大多数虚拟化环境的基础。
对于标准的数据中心部署,形成一个受支持的VSAN群集需要至少3台ESXi主机(每台主机均具有本地存储并提供存储给VSAN数据存储使用)。这是为了让群集满足最低的可用性要求——可以容忍至少一台主机发生故障。
VMware在VSAN 6.1(随vSphere 6.0 U1发布)中引入了一个新的概念——2节点VSAN群集,它主要用于远程办公室/分支办公室的部署。围绕2节点VSAN群集的使用还有其他一些考虑因素,包括见证主机的概念,这些都将会在第8章深入探讨。
自VSAN 6.0起,一个群集支持最多64台ESXi主机,比起最初的发布版本(随vSphere 5.5发布,之后我们将称其为VSAN 5.5)的32台主机有着显著的增长。不过,如果要支持64台主机,ESXi主机的最低版本要求是6.0。
一台主机内存的最小推荐值是6GB。如果你的主机配置的磁盘组数量已达上限,我们建议这台主机至少配置32GB内存。VSAN并不会消耗掉所有这些内存,但是对于最大配置来说这是必需的。主机对内存的要求直接和主机中配置的物理磁盘的数量以及磁盘组的数量相关。关于这个问题,你会在第9章中了解更多细节。在所有情况下,我们都建议给每台主机配置大于32GB的内存,以保证你的工作负载、VSAN以及hypervisor具有足够的资源来提供最佳的用户体验。

时间: 2024-09-27 05:06:35

《VMware Virtual SAN权威指南》一2.1.1 ESXi的相关文章

《VMware Virtual SAN权威指南(原书第2版)》一导读

前 言 说到虚拟化及其依赖的底层基础架构,经常会提起一个组件--存储.原因相当简单:在很多环境中,存储是痛点.尽管存储市场已经因为闪存技术的引入发生了变化,很多传统的存储问题得到了缓解,但是很多机构还没能采纳这些新的架构,因而仍然会遇到挑战. 存储问题的范围包括运营上的复杂性到性能问题甚至是可用性的限制.这些问题中的大部分都起因于同样的根本问题:老旧的系统架构.这是因为大多数存储平台架构是在虚拟化技术出现之前开发出来的,而虚拟化已经改变了使用这些共享存储平台的方法. 某种程度上,可以说是虚拟化迫

《VMware Virtual SAN权威指南》一导读

前 言 说到虚拟化及其依赖的底层基础架构,经常会提起一个组件--存储.原因相当简单:在很多环境中,存储是痛点.尽管存储市场已经因为闪存技术的引入发生了变化,很多传统的存储问题得到了缓解,但是很多机构还没能采纳这些新的架构,因而仍然会遇到挑战.存储问题的范围包括运营上的复杂性到性能问题甚至是可用性的限制.这些问题中的大部分都起因于同样的根本问题:老旧的系统架构.这是因为大多数存储平台架构是在虚拟化技术出现之前开发出来的,而虚拟化已经改变了使用这些共享存储平台的方法.某种程度上,可以说是虚拟化迫使存

《VMware Virtual SAN权威指南》一3.6 网络I/O控制配置示例

3.6 网络I/O控制配置示例 如前所述,网络I/O控制(NIOC)可以用来保证VSAN群集的通信和I/O传输所需的带宽.只有在vSphere分布式交换机(VDS)中才能配置NIOC,而在VMware标准交换机(VSS)中是不支持的.VDS的确只在某些高版本的vSphere中才提供,不过VSAN已经包含了VDS,而不管你使用的是哪个版本的vSphere. 如果你正在使用的分布式交换机版本早于vSphere版本,为了使用VSAN,我们建议你把它升级到最新版本,虽然vSphere的文档中没有特别指出

《VMware Virtual SAN权威指南(原书第2版)》一2.3 网络要求

2.3 网络要求 这一节将从网络角度探讨VSAN的需求和前提条件.VSAN是一种分布式的存储解决方案,因此它对主机之间的通信网络非常倚重,其关键是稳定性和可靠性. 2.3.1 网络接口卡 每台ESXi主机必须至少具有一块千兆以太网络接口卡专用于VSAN混合配置,而全闪存配置必须使用万兆网卡.然而,作为最佳实践,VMware和本书作者都推荐使用万兆网卡.出于冗余的考虑,可以在每一台主机上都配置网卡绑定.我们认为这是最佳实践,但这并不是构建一个完整功能的VSAN群集所必需的. 2.3.2 受支持的虚

《VMware Virtual SAN权威指南》一1.1 软件定义的数据中心

1.1 软件定义的数据中心 在2012年VMware的年度大会VMworld上,VMware分享了对于软件定义的数据中心(software-def?ined datacenter,SDDC)的愿景.SDDC是VMware的公有云和私有云的架构,在其中将数据中心所有的重要组成部分--计算.存储.网络以及相关的服务全部都进行虚拟化.将数据中心的各个组件虚拟化使得IT团队更加灵活,降低了运营的复杂性,减少了成本,并同时增加了可用性和敏捷性,最终将大大缩短把新服务投向市场的时间. 要达到这些目的,仅仅是

《VMware Virtual SAN权威指南》一1.4 Virtual SAN简介

1.4 Virtual SAN简介 对于软件定义的存储,VMware计划把重点放在一系列本地存储.共享存储以及存储/数据服务的VMware创新项目上.一言以蔽之,VMware想让vSphere成为存储服务的平台. 存储曾经是一种在项目初期配置.部署完毕并且在其整个生命周期都不会变更的存在.如果需要变更某个正被虚拟机使用的LUN或卷的某些特性或属性,大多数情况下,原始LUN或卷必须被删除并重建.这是一种干扰生产的.有风险的并需要耗费大量时间的操作,因为它需要在LUN或卷之间迁移数据.这甚至可能需要

《VMware Virtual SAN权威指南》一1.3 超融合/服务器SAN解决方案

1.3 超融合/服务器SAN解决方案 过去几年,围绕着什么是超融合什么又是Server SAN存在着很多争论.在我们看来,这两者最大的区别就是运行的平台集成化的程度和交付模式.说起交付模式,则有2种不同的方案: 基于设备的 纯软件的 基于设备的解决方案就是把软件和硬件捆绑在一起销售交付的一种解决方案,它预装了一种hypervisor,通常配置起来不费吹灰之力.它往往还通过利用其所提供的存储API或嵌入在hypervisor内的扩展数据服务等各种方法与其运行的平台硬件深度集成. 在所有这些例子中,

《VMware Virtual SAN权威指南(原书第2版)》一3.3 VSAN网络配置之VMware标准交换机

3.3 VSAN网络配置之VMware标准交换机 通过VMware标准交换机创建一个用于VSAN网络流量的端口组是相对简单的.在安装ESXi主机的时候,一个VMware标准交换机已经自动创建,并用来承载ESXi网络管理流量和虚拟机流量.可以使用这个现存的标准交换机以及与之关联的与外部网络通信的上行链路来创建一个用于VSAN流量的新的VMkernel端口.或者可以选择为VSAN网络流量的VMkernel端口创建一个新的标准交换机(见图3-2),并为它选择一些新的上行链路. 在这个例子中,我们已经决

《VMware Virtual SAN权威指南》一3.5 可能发生的网络配置问题

3.5 可能发生的网络配置问题 如果VSAN VMkernel没能配置正确,在VSAN群集对象的Monitor(监控)页面上的Virtual SAN→Health(运行状况)部分会显示一条配置警告消息.点击(特定测试失败的)warning,关于群集中所有主机网络状态的进一步具体信息会显示出来(如图3-11所示).这个例子中显示的是一个8主机群集中的某单台主机位于一个不同的IP子网,可想而知这会引起网络连接问题. 图3-11 网络配置警告消息 对于VSAN 6.1及更早版本,另一个可以观察到VSA

《VMware Virtual SAN权威指南》一3.4 VSAN网络配置之vSphere分布式交换机

3.4 VSAN网络配置之vSphere分布式交换机 VSAN要使用VDS,需要配置一个分布式端口组来承载VSAN流量.创建分布式端口组后,就可以在独立的ESXi主机上创建VMkernel接口来使用这个分布式端口组.接下来将详细描述这个过程. 第1步:创建分布式交换机 尽管VMware官方文档中没有明确指出应该使用哪个版本的分布式交换机,但是我们建议为VSAN创建最新版本的分布式交换机,这是笔者进行VSAN测试时用的版本.注意,当选定分布式交换机版本之后,所有连接到这个VDS的ESXi主机都必须