分层存储管理(简称HSM)最初诞生于大型机时代,当时就算是一块300MB的“大容量”磁盘都需要花上数万美元。因此,在那时,我们就必须找寻在磁盘阵列之外构建起速度更慢但价格更低廉的磁盘存储库。
不过,虽然有很多新兴存储应运而生,但是现在来看,HSM系统在如今的某些特定环境下仍然在发挥作用。举例来说,澳大利亚的CSIRO(即联邦科学与工业研究组织)仍然强烈依赖于HSM方案。
目前云供应商已经迎来自己的黄金时代,而200TB容量的消费级磁盘也只需两万英镑(仅磁盘本身)。
如果大家在六个月之前问起我选择传统HSM系统是否是个好选择,我的回答一定非常明确:“要视具体情况而定”。不过时至今日,我的回答将有所不同:“绝对不是。”
尽管微软的全新“内部”Azure终有一天会允许用户在世界上的任何位置创建起与Azure及Hyper-V相兼容的托管云,但就目前来看这还仍然处于设想阶段。
眼下确切可用的只有Hyper-V及其与Azure比较相近的本地云创建机制。将其与Windows Server 2012 R2相结合,大家将获得天造地设的一对理想组合。
由此延伸,我们将能够设置属于自己的私有云、从而与由微软托管的Azure实例进行竞争。这就让问题由“我们应该运行自己的私有云方案吗?”变成了“我们为什么不应该?”
下面我们就具体加以分析。
热门与冷门
我们要做的第一件事是抛开概念,也就是把HSM这一术语的固有内容放在一边。HSM确实曾经辉煌一时,但随着生命周期的推移、它如今已经呈现出日薄西山之势。
在HSM领域,我建议大家用另一个结构相似的术语对其加以替代,这就是AST——自动化存储分层。
从实质上讲,这只是一种对数据中心内部不同存储类型的描述方式。任何熟悉虚拟化数据中心的技术人员应该都不会对这一概念感到陌生。
我们可以对典型AST方案进行如下剖析:
热门数据:基于PCIe的闪存驱动器,即串行连接SCSI固态硬盘(简称SSD)。
冷门数据:基于传统的硬盘驱动器(简称HDD)。
由于磁盘及SSD产品的供应量持续走高、价格却剧烈下滑,目前我们大多数人都已经开始在自己的设备上配备多套存储方案。AST能够切实以自动化方式打理访问任务,确保热门数据被保存在SSD当中、冷门数据则始终身处HDD之内。
这听起来相当美好,但事实上热门冷门分层存储方案在设置与管理方面并不轻松。某些供应商虽然会为我们带来开箱即用的便捷产品,但随之而来的往往还有对该厂商的依赖性,具体使用成本及额外限制也层出不穷。所以,说真的,这并不是最理想的解决方案。
换个思路,Server 2012 R2中的存储空间(Storage Spaces)机制凭借自身的出色效果与优异表现成为值得每位用户尝试的救场利器。
微软将多年来积累下来的全部经验都集中到了其Azure云服务当中,希望借此提升服务水平并将其囊括在一套接口与后端当中。它作用于大家的JBOD(即简单磁盘捆绑)及物理接入存储设备,并允许用户将这些资源汇聚成池。
存储空间机制还允许大家通过三步设置创建出自动化存储层。虽然这套体系未经严格测试(实际效果可能达不到我们的预期)而且存在明显的支持性局限,大家还是可以打造出属于自己的点对点虚拟私有网络并将远程托管设备与Azure Server 2012存储体系相对接,使其成为一套整体iSCSI存储空间。
如果大家拥有本地数据中心存储仓库,那么经过正确链接之后我们完全可以获得与现有本地HSM相仿的性能表现。
考量成本
为了获得理想的效果,大家需要首先建立起测试实验环境,并在完成概念验证之后通过单一测试用例及服务器进行试水。对于某些Azure托管机制,我们还需要得到CIO的审查与批准。
到了这一步,我们通常需要同微软驻本地代表取得联系,洽谈关于使用成本的具体事宜。如果大家已经是微软产品的大客户,则很有机会拿到颇具吸引力的折扣价格。如若不然,大家恐怕就必须按Azure网站上的产品列表支付使用费了。
如果现有机制较为薄弱,大家可能需要确保一切改动不至于给业务造成严重影响——否则企业本身很可能被折腾到崩溃。
举例来说,我们可能需要200TB存储空间,因为我们的实际需求在于将原本保存在HSM阵列中的所有数据迁移到云环境当中。
要以本地方式实现这一点,我们在未来三年之内可能需要支付最多七万英镑来购买磁盘、机箱、服务器以及与之相匹配的电力线缆。
根据Azure网站上的“按需计费(Pay As You Go)”价格清单,大家可能发现实际费用要比单独采购成本高出三倍左右。
如果大家提前付清一整年的使用费,那么微软愿意提供最高32%的价格折扣。不过即使把折扣额度扩大到三分之一,大家也仍然需要为微软云托管数据掏出大量资金——具体数额与运行本地云相比将高出十三万英镑以上。
在将数据交付云体系打理之后,我们还需要面临新的问题——由数据所有权争议所带来的各种负面影响。
微软正在全球各个国家全力打造并推出本地化托管Azure方案,但目前这些努力尚处于研发阶段、未有任何实质性产品面世。而且微软也并未做出任何保证,因此即使前续工作完全就绪、我们也未必就能轻松实现服务迁移或者拥有与本地托管云相接近的合理使用成本。
大家也许会想,这不算什么大事。我们当然可以对虚拟硬盘进行加密,并在未来对保存在其中的数据进行加密。但大家是否真的确定,自己即将使用的规程及加密手段不至于出现遭到攻破的窘境?
从数据所有权角度来看,云方案的安全系数仍然是最低的。
核心吸引力
综上所述,我们可能无法以远程方式托管云产品,因为其规模化成本极高。这样说来,有没有我们负担得起的合理使用形式?另外,我们能不能避免由云服务引发的数据所有权问题?
事实上,答案是肯定的。在谈到Azure如何在数据中心层面帮助用户打理数据时,微软列举了远程托管领域的显著优势:提供一套加密备份存储服务。
对于“按需计费”规划来说,50TB存储空间每个月的使用成本为3333美元(来自微软官方网站上的报价,单位为美元,具体数额会根据客户所在国家及货币种类的不同而发生变化)。
乍一看,大部分企业用户似乎很难承受如此高昂的费用,因为按36个月的使用周期来算其总支出将高达119988美元。但鉴于Azure免费提供的备份服务能够帮助企业节约一部分开支,而可靠的备份方案又能显著改善企业的意外损失,可以说微软的这套云方案具备理想的核心吸引力。
从小处入手
如果意识到微软已经将Azure与其Windows Server 2012 R2备份与恢复中心(Backup and Restore Center)相结合,大家对这套云方案的信心还将进一步受到鼓舞。
因此,即使我们还无法把客户的全部数据保存在Azure当中,至少可以先把自己的业务数据交给其打理。
作为一项云服务,Azure堪称开发及小规模存储需求领域的理想选择,但它在大规模业务领域的表现还不够实惠。
微软正在积极努力,希望将Azure的托管范围推广到各个领域——只要这一目标得到实现,或者Azure实现全面的内部部署,大家请千万不要错过这一历史性机遇。
就目前来看,大家不妨先把Azure视为一套出色且可靠的在线备份服务,并继续对其发展趋势保持关注。
【编辑推荐】
把域服务升级和迁移到Windows Server 2012 R2上Win Server 2012 R2 Hyper-V在线调整虚拟硬盘的大小微软将推出众多新产品 全力冲击云计算【责任编辑:箫韵 TEL:(010)68476606】