看废弃造纸厂如何变身未来数据中心

  Joe Kava 最初曾在芬兰南部海岸上,负责将机器人相机送入延伸到波罗的海的地下管道中。这和他最初加入 Google 为其">运营数据中心的初衷大相径庭。在 2009 年的二月份,Google 耗资 5200 万美元购买了一座位于芬兰 Hamina (哈米纳)的废弃的造纸厂,他们认为这座拥有56年历史的建筑是建设其众多服务于大量网络服务的大规模计算设施之一的理想场所。

  这一计划的一部分曾经考虑到了哈米纳造纸厂有一个用于从芬兰湾抽取海水的地下隧道。原本,冰冷的海水是用来冷却造纸厂的一座蒸汽发电站的,但 Google 认为这也可以用来冷却它的服务器。

  那些机器人相机 —— 通过遥控操作经常用在输油管道维护中的水下设备 —— 被用来检测这个穿过造纸厂下方岩层的休眠已久的隧道。当结果出来时,数据显示整个450米长的隧道都处于极佳的状态中,到 2010 年 5 月份,它已经开始将海水运送至 Google 新数据中心内部的散热设备中,帮助冷却数千台处理网络流量的设备。得益于这条岩石隧道,Google 在哈米纳的设施不需要那些在其他数据中心常看到的非常善于消耗能源的电力冷却器。

  “当有人告诉你我们已经选好了下一个数据中心的地点,是一个1953年修建的造纸厂时,你的第一反应可能是:‘你在胡扯什么?’,Kava 说道。“‘我该怎么来设计这个数据中心呢?’但我们得知那座造纸厂是用海水冷却时非常激动……我们想尽可能让这座设施更环保一些,而重新使用已有设备是其中很重要的一部分。”

  Kava 将这评价为 Google 如何不人云亦云地建立它的数据中心,致力于创造既高效又环保的设施的极好例子。但是其实远不止如此,Google 的哈米纳数据中心是网络时代的一个理想化象征。芬兰的纸浆及纸制品制造商 Stora Enso 在2008年初关闭了它的 Summa 造纸厂,评价说是因为新闻及杂志用纸的生产规模的下降造成了“近些年的持续亏损及悲观的长期盈利预期”。报纸及杂志正慢慢将市场让给网络服务,比如 Google 和一些其他一些大型服务,他们都是由新一代计算机数据中心提供支持的——这些设施可以在消耗相比更少的能源、减轻环境压力的同时处理巨量的负载。

  Google 是这项改变的引领者,在不仅仅是芬兰,同时还在比利时、爱尔兰及美国建立这些新一代设施。其他紧随其后的互联网巨头包括亚马逊、微软和 Facebook。去年,Facebook 在俄勒冈州的 Prineville 启用了新的无冷却器的数据中心,它使用外部空气进行散热。最近 Facebook 又宣布它会在瑞典离 Google 的 5200万美元的数据中心不远的地方建立第二个数据中心。

                               Google 哈米纳数据中心的散热室

  Google 数据中心的秘密

  Google 在2008年招聘 Joe Kava 来管理数据中心运营团队,但很快就变成了运营与建设团队。原本,Google 租用已有的数据中心并交由专业团队管理,但是现在 Google 完全自己建设数据中心,到后来它已经完全使用自己的工程师来建设了。“我们过去雇用建筑及工程公司来替我们工作,”Kava 说,“由于近些年的发展,我们培养出了我们自己的天才,我们越来越多地自己完成这些工作了。”

  而这些年中,Google 极少讨论对于设施及其内部的硬件的设计。但是在2009年4月份的时候,这个搜索巨头公布了一个展示他们第一个自主设计的数据中心内部的短片 —— 推测应该是在俄勒冈州的 The Dalles ——而且它也多多少少地透露了些在哈米纳及比利时 Saint-Ghislain 的设施。

  据 Kava 说,这两个位于欧洲的数据中心都没有使用冷却器。哈米纳的数据中心使用海水冷却,而比利时的数据中心使用蒸发冷却系统,从附近的工业运河抽取用水。“我们设计并制作了一个站内的水处理厂,” Kava 说道,“这样我们就不用使用供应城市的可饮用水。”

  一年的大部分时间中,比利时的气候都很温和,足以让机房保持适宜的温度。Kava指出,机房温度不需要像以前那样低。在2008年的时候,美国加热冷冻及空调工程师协会(ASHRAE)建议数据中心的温度应保持在 20 到 25 摄氏度之间——但 Google 建议将其保持在27度以上。

  “构建一个高效的数据中心的第一步……就是简单的提高它的温度,” Kava说,“机器、服务器、存储阵列、任何东西在比一般数据中心保持的温度高的多的地方都能很好的运行。对我而言,任何数据中心在18或20摄氏度以下运行都是相当可笑的。”

  有时候数据中心内的温度会太高,这时 Google 会让员工离开建筑——但是让服务器继续运行。“我们会有所谓的“远足小时”或者“远足日”。一般来说我们什么都不用做,只是告诉员工不要在那些特别热的时间内在数据中心内工作就行了,稍后把工作赶上就好。”

  在比利时这里,有时候会热的连服务器都不能运行,这时 Google 就会将这里的工作移交给其他数据中心负责。Kava 没有给出任何细节,但他表示这种数据中心之间的工作交接涉及到一个叫做 Spanner 的软件平台。这个 Google 设计的平台曾在 2009 年 10 月的一个谈论会上有所提及,但是这是 Google 第一次公开确认 Spanner 确实有在使用。

  “如果真的变得很热,需要我们来降低服务器负载时,那么是的,我们有自动化工具和系统来处理这些,比如 Spanner。”Kava说。

  根据 Google 在2009年的讨论会上的陈述,Spanner 是一个“存储及计算系统,遍及他们所有的数据中心,并基于限制及使用特点来自动转移和增加数据和计算的副本。”这包括涉及带宽、丢包率、能源、资源及“失败模式——比如当数据中心内部出现错误的时候。

  这个平台展示了 Google 对于其数据中心设计的总体理念。他们自己建造东西,并且只对外透露那么些消息。它把像 Spanner 这样的技术看作竞争优势。但是有一点是非常明确的: Google 在重新思考数据中心。

  这个理念已经不可避免的对这个行业造成了一些影响。像 Google、微软已经开始对数据中心模块化进行实验——运送预先装好服务器和其他设备的容器——之后可以再和其他容器一同组装成更大的设备。至于 Facebook 公布其 Prineville 设施的设计方案——对于 Google 努力让它的设计方案保持神秘的回应——说明其他人也在跟随他们的脚步。去年晚些时候,Prineville 的城市工程师 Eric Klann 声称,两家没有透露名字的公司——昵称为 “Maverick” 和 “Cloud” 在设想根据 Facebook 无冷却器的设计来建造服务器场,看起来 Maverick 是非 Apple 莫属。

  数据中心很大,细节很少

  这个月,为了向世界表明,他们的数据中心有多环保, Google 宣布他们所有自行修建的在美国的设施都获得了 ISO 14001 和 OHSAS 18001 认证——这是国际认可的包括数据中心在内的任何活动的环境友好及安全认证。

  这涉及到追踪任何事情,从工程工具到数据中心内的梯子。“你其实能从这些审查中学到很多东西,那些你从来没考虑过的。”Kava说。他所指的是 Google 会对数据中心设计中最细微的部分做考虑——这是针对所有数据中心的。它很快还会为其欧洲的设施申请相似的证书。

  在芬兰,Google 的波罗的海的海水冷却设计还有一个点睛之笔。Kava 解释道,海水只是设置的一部分。在数据中心的地上,服务器散出热气,这些热空气被传送到服务器旁边的水冷系统中,然后 Google 将水冷系统中的水与海水混合来冷却。当这个过程结束后,冰冷的海水已经变热了。但是在回到海中之前,Google 会用更多的海水来冷却它。“当我们将水排出到海湾的时候,它的温度和湾内海水温度会很相似,” Kava 说,“这就将对环境的影响降低到最小。”

  根据 Kava 所说,公司的环境许可并没有要求控制水温。“这让我自己感觉很好,”他说,“我们不是只做我们被要求做的。我们去做那些我们认为对的事情。”这是一个关于 Google 很平常的消息。但是 Kava 指出那些 ISO 认证说明这家公司正在不断努力达到它的目标。“当局者迷,局外者清。这时第三方的加入就非常必要。”

  来自像 Facebook 这类公司的抱怨是 Google 并没有分享足够的关于如何解决那些困扰任何大型网络机构的问题的信息。报告指出 Google 不仅建造自己的服务器,同时还建造自己的网络设备,但是这家公司并没有透露多少消息。报告还指出,至少这些年,Google 已经确实开始分享更多内容了。

  我们询问了有关 Joe Kava 关于网络设备的问题,但他拒绝回答。但他确认了 Spanner 的使用。他不断的说到岩层隧道和波罗的海的事情。他甚至还告诉我们,当 Google 购买那座造纸厂的时候,他和他的团队非常清楚这创造了一个超大的互联网象征。“这没能逃过我们的眼睛,”他说。

(作者:佚名 cnbeta 责任编辑:许京杨)

时间: 2024-10-11 18:46:16

看废弃造纸厂如何变身未来数据中心的相关文章

未来数据中心与云灾难恢复

未来数据中心是一个不断发展的概念.如果回溯到二战时期,理想的数据中心就是在一个大房间里安装一台庞大的大型计算机.未来数据中心是一个不断发展的概念.如果回溯到二战时期,理想的数据中心就是在一个大房间里安装一台庞大的大型计算机.几十年后,分布式计算促进了仓库式数据中心的发展.虚拟化使得服务器的大规模整合成为了可能,大大减少了数据中心内的物理服务器数量. 现在看来,人们正在进入一个简约的时代:数据中心的机架就像大卫.科波菲尔的魔术中的兰博基尼一样,在一阵烟雾中消失了.但这并不意味着IT硬件从数据中心消

揭秘:未来数据中心的六大优化趋势

随着数据中心的成本不断飙升,数据中心管理的重点开始转向优化数据中心基础设施.在未来几年,如下的一些新的趋势必将影响未来数据中心的决策: (一)数据中心的选址 一家数据中心的选址问题是一个相当重要的决定.因为现在的技术进步已经使得大多数任务可以进行远程操作,现场只需要有少量的工作人员需要即可,这就为数据中心的选址提供了广泛的地域选择.对这一决定有着相当影响的一些因素是: 选址地区的气候特点 每千瓦小时的最低费用 对环境的最小危害 降低生产成本 选址地区较低的人口稠密度 低建设成本 低劳动力成本 "

未来数据中心网络必需的三大件

短短几年间,很多人从不知道什么是SDN.Trill.VXlan,对这些技术不屑一顾,到现在几乎每个数据中心都在谋求转型,每个从事信息技术的人如果还不知道这些单词是什么就Out了,就像这年头还不用微信一样,跟不上主潮流了.当然这些新技术之所以被提出来,并得到很多人的响应和热捧,是因为随着应用的复杂化,人们信息需求不断增加,现有数据中心出现了不少自身无法解决的问题,必须要对现有数据中心进行优化或重建,尤其是数据中心网络要重建.在这样的背景下,催生了很多数据中心网络新技术,这里不乏有一些不切合实际的技

未来数据中心的选择:宽带多模光纤

多模光纤自上世纪80年代进入市场以来,经历了从OM1.OM2.OM3到OM4的演进.其中,OM3是针对垂直腔面发射激光(VCSEL)光源优化的多模光纤,有效模式带宽(EMB)达到2000MHZ.Km,支持100GBase-SR10距离达到100米,而OM4有效模式带宽(EMB)相比OM3提高了1倍多,达到4700MHZ.Km,然而支持100GBase-SR10距离仅有150米,相对于OM3光纤,100G以太网传输距离仅仅增加了50%,仍然无法满足未来网络的需求. 作为未来数据中心的选择,宽带多模

未来数据中心的选择:宽带多模光纤(WBMMF)

多模光纤自上世纪80年代进入市场以来,经历了从OM1.OM2.OM3到OM4的演进.其中,OM3是针对垂直腔面发射激光(VCSEL)光源优化的多模光纤,有效模式带宽(EMB)达到2000MHZ.Km,支持100GBase-SR10距离达到100米,而OM4有效模式带宽(EMB)相比OM3提高了1倍多,达到4700MHZ.Km,然而支持100GBase-SR10距离仅有150米,相对于OM3光纤,100G以太网传输距离仅仅增加了50%,仍然无法满足未来网络的需求. 作为未来数据中心的选择,宽带多模

未来数据中心网络三大武器: SDN、VDC、Overlay

当然这些新技术之所以被提出来,并得到很多人的响应和热捧,是因为随着应用的复杂化,人们信息需求不断增加,现有数据中心出现了不少自身无法解决的问题,必须要对现有数据中心进行优化或重建,尤其是数据中心网络要重建.在这样的背景下,催生了很多数据中心网络新技术,这里不乏有一些不切合实际的技术,也有不少只是实验室技术,根本无法实际应用,但是正是有了这些技术探索,逐渐抛弃了一些不合理的,再对合理的不断进行修改,到目前为止可以基本形成一套成熟理论,这套理论基本是未来数据中心网络的样子.未来的数据中心网络包括三大

未来数据中心一体机架构能否取代小型机模式?

随着软件定义时代的到来,业务不断增长,数据量和系统的压力也跟着水涨船高.从传统的关系型数据库到专用的数据仓库,从小型机到现在流行的x86服务器,技术架构也随之发生很大的变化.用户需要关注的不再仅仅是单个服务器或者存储节点,而是整个IT系统,包括整体系统架构的性能.安全性和可靠性等.依据传统观念,用户在构建企业数据中心时可能更倾向于选择小型机,而如今x86服务器无论从性能.可靠性还安全性等方面,都已有了质的飞跃.正是在这种背景下,基于x86架构的一体机解决方案应运而生.一体机具有集成性高.部署快捷

未来数据中心将看重能源测量和冷却效率

尽管使用有效性进行衡量有它的好处,但并不能充分优化数据中心的效率.IT团队需要更详细的数据中心指标,包括能源和冷却基础设施,以及计算系统,以真正优化数据中心. 谈到在这一方面的进展,2007年美国环境保护局(Environmental Protection Agency)公布了一份关于数据中心效率的报告,其中指出希望发布名为"能源之星"(ENERGY STAR)的服务器评级标准,尽管后来实现比预期的要晚,他们还是完成了这一标准.Green Grid早在2010年公布了水的使用效率和碳使

RAMCloud使未来数据中心无需硬盘

在当今的时代下,固态硬盘已成为企业中的热门技术.但斯坦福大学的计算机科学团队认为有更好的解决方案.他们已经想出了可扩展且高性能的存储方法,其被称为RAMCloud.这种解决方案可存储动态随机存储器中的所有数据.同时还可以聚合整个数据中心的内存资源. RAMCloud的可扩展性和性能方面表现使它成为高性能计算的关键技术.特别是数据密集型的应用程序,而此技术在计算密集型的应用程序则表现一般. RAMCloud项目由斯坦福大学教授John Ousterhout发起.同时他也是Tcl脚本语言的发明者.他