数据中心管理是不容易的:计算部署每天都在变化,数据中心气流也是复杂的,而错位的激励会导致企业的支出不断增长,此外,大多数企业数据中心的利用率和总拥有成本远远落后于基于云计算的节点。
数据中心管理低效的一个原因就是在企业数据中心在这三方面的注意力不集中,这三方面称之为现代数据中心管理的三大支柱:跟踪(测量和库存控制),开发好的程序,对物理原理和工程限制的理解。
另一个原因是,数据中心高级管理人员往往不知道这些问题的范围。例如,最近的一项研究表明,全球30%的服务器没有提供有用的信息服务,却仍旧在使用电力。其结果是全球各地的企业数据中心浪费了数百亿美元的资金。自从服务器昏迷这个问题浮出水面以来,Uptime Institute机构就制定了服务器目标,但进展不大。
解决这些问题的一个方法就是采用科学方法进行数据中心管理。这意味着要创建一些假设和实验,以测试它们,并相应地改变运营策略,在一个永无止境的循环中不断改进。在数据中心这样做并不是很容易,因为部署的设备是昂贵的,而进行实验也是有风险的。
有没有一种方法可以降低数据中心试验的低风险,并且成本更低?当然有。通过数据中心的校准模型,测试不同的软件部署在气流、温度、可靠性、用电量,以及数据中心容量的影响。事实上,使用这些模型是用来评估数据中心运营商关心的事情,也就是数据中心配置潜在变化影响的唯一准确的方法,因为该系统是如此复杂。
最近,纽约州立宾汉姆顿大学的科学家们在一个部署41个机架的数据中心创造了一个校准模型,用来准确地测试一个软件的类型(6sigmaDC)可以预测数据中心设施的气温,并创造未来的实验测试环境。科学家们可以轻松地配置数据中心,而不必担心中断关键任务操作,因为其安装仅用于测试。他们还可以运行不同的工作负载,看看那些可能会影响数据中心设施能源使用或可靠性。
大多数企业的数据中心没有这样的灵活性,但他们可以采用数据中心设施的一部分作为一个测试平台,只要他们有足够的规模。对大多数企业来说,这样的直接试验是不切实际的。几乎所有人都可以做的事就是建立一个校准模型,在他们的设施中运行实验的软件。
宾厄姆顿大学的研究工作表明,对于数据中心实验,采用软件代码更便宜,更方便,比部署物理硬件风险较小,并且也是比较准确的(只要该模型正确校准)。在最初的测试设置中,他们可靠地预测温度与每个机架的异常值,这些结果可以进一步校准,并可以进一步何改善。他们能够识别模型结果和测量结果之间的差异的物理原因,一旦确定,可以找到一个更好的、更准确的明确路径的模型。
人们需要这种更多的测试实验室,适用于数据中心管理,提高评估准确性,并改进最佳实践所有的建模软件,但高层次的教训很清楚:企业数据中心应用软件来提高他们的经营业绩,宾厄姆顿大学的研究工作指明了方向。IT技术正在改变着经济的其他部分,为什么不使用其来改造自身的IT?
本文作者:Harris
来源:51CTO