如果你是一家业务快速发展的公司,且分支机构遍布全国,你就不能不考虑网络建设带来的成本问题。
近日,雅虎宣布在纽约州北部新建一个数据中心。该数据中心建成以后,将为雅虎的邮件和Flickr服务提供支持。据了解,该数据中心还将采取惠普的集装箱数据中心方案。由于采用了一种全新的设计,该数据中心能够节省40%的成本,数据中心的电力使用效率(PUE)值达到了1.08,远远低于美国全国平均水平1.9。雅虎方面表示,该数据中心建成以后,会成为最环保的数据中心。
谷歌和微软也在努力让自己巨大的数据中心成为节约成本的楷模。谷歌甚至把数据中心建在海上,以便降低能耗。微软采用模块化概念,集装箱式的数据中心,使得整个数据中心运营效率被大大的提升。巨头们用自己的行动向世人表明他们在向网络建设成本宣战。
同样的宣战来自国内。在今年8月北京举办的2010互联大会上,作为中国国内最大的第三方中立IDC厂商,北京世纪互联副总裁肖峰强调:IDC已是高能耗的产业,其中60%的成本是能耗的消耗,这跟我们电力资源的紧张包括国家提倡的绿色节能环保确实是一个矛盾。解决这个矛盾的关键是靠技术进步和规模效益。通过多年的努力,世纪互联在全国建立了很多大型数据中心,以此为核心,世纪互联通过跟很多伙伴的合作,其全国的数据中心服务面积超过5万平米。
除了规模效应,技术进步将成为进一步降低网络建设成本的杀手锏。科技的进步让工程师们不断提出新的改进措施以便降低数据中心运营成本。例如改善气流管理和冷却容量;转换到液体冷却等。采用液体冷却,液体冷却比传统的空气冷却效率更高。美国一家研究中心的一项研究显示,与标准空气冷却的机房空调设备相比,液体冷却能够把能源成本减少30%至50%。的确如此,由于日益提高的电源密度和较新设备散发的热量,冷却和空调的能源成本已经超过了服务器本身的耗电量成本。美国电力转换公司最近的统计数据显示,冷却成本大约占数据中心总能源账单的50%。因此,优化数据中心冷却是排在第一位的最有价值的绿色计划。
2008年,世纪互联在北京投产绿色数据中心,面积约一万平方米,主要是用水冷空调,每年有4个月不用开压缩机。同时细节上,比如使用通道隔离,缩短循环路径,包括每个机柜备电表,这样大大降低整个数据中心的电力耗费情况。
2009年,世纪互联第一个集装箱式数据中心开始使用。集装箱式数据中心大大缩短送风距离,另外提供了保温材料,采用的是水冷空调,这种设计大大提高了耗电的效率,PUE值可以做到1.2。这个数值也是大大低于全国平均水平。目前,世纪互联正在同全国各个运营商积极展开合作,把绿色集装箱式数据中心推到各个区域。
肖峰认为,再好的设施也是靠人员管理的,第一要有好的系统工具平台,第二要有好的软件,第三要有好的运维管理。世纪互联提供全方位、本地化24×7的服务支撑。同时经过这些年的积累,经过标准化流程管理之后,系统不光开放给我们内部的运营部门、系统部门,同时也开放给客户,然后可以互动,帮助每个客户高效的互动,也是一种节省能源的方式。
真正的绿色数据中心应该是降低能耗、节省空间、提高效能,减少有害物质的一个数据中心,这样的数据中心应该帮助我们的企业节省成本、高效和安全的。传统数据中心耗电量大,PUE值比较高,数据中心加强周期也比较长。绿色数据中心应该在未来把这些问题都解决掉。
目前服务器数量不完全统计应该是550万台,而且每年都是以120%的速度增长。这样增长速度带来的不仅是能耗问题,还会有数据中心的管理成本问题。中国地域宽广,又有南电信、北网通的区别,使得用户在建设网络时不得不付出较高的成本,还不一定能达到理想的效果。
随着技术的不断发展,一些有实力的IDC服务商开始大规模在全国骨干、边缘城市建设网络节点,并不断强化和优化自身的运维经验,引进先进技术手段,并使之转化为实实在在的解决方案。在科技驱动下,国内长期以来的网络建设成本坚冰开始发生破裂。