数据中心跨机房技术实现的现实阻力

现在的数据中心往往是由很多个机房组成的,机房可能遍布于世界各个角落,以满足全球各地用户访问的需求。这些部署在世界各地的机房,有的是为了提升本地用户的访问体验,有的是为了做机房的业务备份,也有的是集群业务扩容的需要。不管在部署什么的业务,做跨机房的时候,都要充分考虑可能面临的问题,以便在跨机房部署时避免犯错。下面就来详细谈一谈,跨机房的业务部署时,数据中心要考虑哪些可能遇到的问题。

带宽

处于不同地区的两个或者多个机房要打通,很多时候要经过广域网才行。当然,有些实力超强的数据中心也可能单独建设一条光缆隧道,通过光传输直连,这种情况非常少见,建设成本要比租用运营商的网络要昂贵得多。更多的时候是向运营商租用带宽,通过在两个机房之间建立一条VPN隧道,达到打通的目的,这个带宽大小要根据机房的实际需要,也要考虑运营商能提供多大的带宽。原则上,能进行本地机房转发的,尽量不走跨机房,减少跨机房的流量负担,这样可以减少租用运营商网络带宽的费用。机房的建设不要过于分散,减少机房之间的通道,各地机房都要汇聚连接到大规模的机房上,减少不必要的跨机房业务,从而节省带宽费用。运营商的网络带宽各地均有不同,机房要尽量建设在网络发到的地区,以免运营商带宽大大地限制住跨机房的流量访问。做跨机房的业务部署时,首先就要考虑机房出入口的带宽是否能满足,如果不能满足,一票否决,这样的跨机房业务不能建设和部署。

安全

在数据中心机房内部,可以部署各种软硬件的安全防护措施,以确保数据安全。但机房之间的数据交互,这些数据就不受机房的控制了,在广域网传输时,数据中心机房的安全难以发挥作用。这时的数据有的可能是增加了外层IP头,做了封装,但内层报文依然有可能被人所截获并被还原出来。有的可能是在发送和接收的机房安全设备上做加密,但这些加密算法并非不可破译,只要被人掌握了破译方法,在传输的过程中依然有可能被盗取数据。各种广域网的网络协议本身是存在安全漏洞的,万一发生攻击,被人攻破利用,数据就会泄密,带来的损失可能是致命性的。最近出现一种量子通信,其安全性达到了前所未有的高度,也许在未来跨机房的应用场景中能得到广泛应用,这样可以大大提升跨机房数据传输的安全性。另外,在机房之间要尽量传递计算数据或者中间过程数据,对于一些涉及个人信息或者商业机密的数据,尽量不要在跨机房的业务中反复传递,即使要传递,也尽量采用线下的方式。通过人为拷贝到存储设备中,比如U盘,移动硬盘,PC等,在机房之间转移和传递,减少数据在网络中传输泄露的风险。

延时

数据中心内部网络通信延时一般在300us(0.3ms)左右,但跨机房通信延时可能高达50000us(50ms),在进行业务部署的时候要充分考虑跨机房的延时问题。有的业务系统,跨机房还有访问数据流量,这时就要考虑延时时间,对于跨机房的访问超时时间要设置得长些;有的业务系统,跨机房做数据备份,一份数据通过机房之间的链路传递到另外的机房,本身就消耗了一定时间,所以备用机房得到的数据总是延后的,要根据延时的时间来确定主备系统的数据差异,避免数据发生紊乱。尤其是在进行主备切换时,一定要确保数据的平滑交接,不出现丢失数据的情况;有的业务系统,跨机房要实现虚拟机的迁移,以此来提升系统可靠性。虚拟机要实现跨机房的迁移就需要部署一个大二层的网络,而传统的数据中心机房内部都是全三层转发的,现在要通过二层打通,就需要借助VXLAN技术,构建一套虚拟的网络,实现虚拟机在机房之间任意迁移。延时过大,就会影响到迁移的速度,在虚拟机技术实现上也要充分考虑到延时的影响。

抖动

在跨机房的整个通信链路中,影响因子很多,任何一点发生变化,都可能带来整条链路的通信抖动,从而对设计方案的稳定性提出更高的要求。在广域网传递数据,机房之间需要经过几条或十几条路由才能抵达,这中间任意一条路由有变化或者震荡,都会影响两机房之间的通信。还有,中间任意一条经过的链路如果有震荡或者错包也可能会导致两机房之间的通信。有时这种网络抖动是不可避免的,也很难去排查,因为中间经过了太多的链路和网络设备,这些设备还可能分属于不同的运营商或不同国家,就算排查起来也是非常漫长,除非是影响长时间大面积断网的大事件,像这种偶尔有个网络抖动,一般数据中心机房也只有忍气吞声的份儿了。既然抖动不可避免,就得想办法克服。在机房之间跑的网络协议,重传机制和超时时间要设置得长一些,对抖动不敏感。比如在端口上,可以增加延迟DOWN或UP的配置,当出现链路抖动或者错包时,只要不超过设定的时间,端口都不会DOWN。因为端口DOWN了后,很多协议和流量就彻底中断了,而通过延迟DOWN配置就可避免抖动带来端口DOWN,减少对跨机房流量转发影响。

数据中心跨机房技术要面对很多挑战,本文着重介绍了几个方面。虽然跨机房面临这样那样的问题,但依然无法阻挡数据中心跨机房建设的热情。数据中心建设不能一味地寻求大,建设得再大,也有无法再扩的那一天,这时多机房技术则更符合数据中心未来发展的实际情况。未来的数据中心必将通过跨机房技术,利用多机房优势来提升整体业务能力。

本文转自d1net(转载)

时间: 2024-10-30 18:45:41

数据中心跨机房技术实现的现实阻力的相关文章

LinkedIn数据中心的100G技术改革

LinkedIn的持续发展使得我们必须在未来的3-5年间将我们的数据中心发展到一个宏大的规模.Altair项目是我们创建大规模可扩容数据中心的途径.新的LinkedIn数据中心正在Oregon建设中,内部称作LOR1,这将是我们构建的第一个大容量数据中心架构,这将引领我们将服务器的级别从万级走向十万级.这个数据中心的新型网络架构可以支持根据需要扩充服务器数量,而且利用10/25/50/100的技术阶梯来支持使用不同网络连接的混合多层的服务. 在这篇博客中,我们将阐述我们是如何利用100G技术构建

软件定义数据中心的关键技术与应用

软件定义数据中心(SDDC)的概念最早于2012年由VMware首次提出,指通过软件实现整个数据中心内基础设施资源的抽象.池化.部署和管理,满足定制化.差异化的应用和业务需求,有效交付云服务.传统数据中心架构复杂且缺乏灵活性,业务与基础设施紧耦合,应用系统受制于软硬件之间的依赖关系,同时传统数据中心运维管理复杂,资源利用率低,维护成本高.SDDC概念的提出,是云计算.软件定义.DevOps.基础设施快速灵活部署等一系列技术与需求在数据中心的具体实现,通过SDDC实现了以用户为中心.以服务为导向,

工信部《绿色数据中心先进适用技术目录(第一批)》公示

近日,工信部在其官方网站发布了<绿色数据中心先进适用技术目录(第一批)>公示,以下为详细内容: 公示指出:为引导数据中心积极采用先进绿色技术,构建绿色数据中心,根据<国家绿色数据中心试点工作方案>(工信部联节[2015]82号)要求,经企业申报.各地工业和信息化主管部门以及行业协会推荐.专家评审,编制形成了<绿色数据中心先进适用技术目录(第一批)>(以下简称<目录>).目录共分为制冷/冷却类.供配电类.IT 类.模块化类.运维管理类五大类别及17项具体技术.

简析数据中心三大Overlay技术

搭建大规模的云计算环境需要数据中心突破多种技术难题,其中虚拟化是云计算最为显著的特征.要满足虚拟机在数据中心任意网络位置之间都可以无感知迁移,就需要引入一些新的网络技术,Overlay技术就是在这样的背景下产生的.Overlay技术指的是一种网络架构上叠加的虚拟化技术模式,其大体框架是对基础网络不进行大规模修改的条件下,实现应用在网络上的承载,并能与其它网络业务分离,并且以基于IP的基础网络技术为主.Overlay可以理解是一种隧道封装技术,这样大家都不会陌生,像IPv4inIPv4.GRE.M

长城电脑数据中心服务器电源技术获奖

本文讲的是长城电脑数据中心服务器电源技术获奖,[IT168 资讯]"2014年度中国电子学会科学技术奖"于日前正式揭晓,中国长城计算机深圳股份有限公司(简称长城电脑)提交的"数据中心服务器电源技术研发与产业化项目"以其领先的创新技术成功荣获"科技进步类二等奖".该项目研制难度大,创新性强,属国内首创,不仅是长城电脑在电源及服务器领域长期以来深厚技术积累的结晶,也填补了国内空白,打破了我国在高端服务电源领域长期依赖进口的尴尬局面,代表着我国在高端服

数据中心网络虚拟化技术概要

随着云计算和大数据等新兴应用的快速发展,"数据中心即计算机"(data center as a computer)的技术发展趋势逐渐明朗.数据中心作为一台计算机,与传统的高性能计算机具有很大的不同.在高性能计算领域,因为服务器被独占式的分配给租户使用,所以其主要的优化目标是"算得快".但是在云计算领域,为了提高数据中心的利用率.降低其运营成本,服务器整合(server consolidation)技术将成为常态.此时,服务器内将同时运行不同租户.不同应用的实例.一般

以太网将成为数据中心唯一网络技术

据http://www.aliyun.com/zixun/aggregation/18224.html">市场研究公司Current Analysis最新发表的题为"One Love,One Data Center,One Network"(同一个爱.同一个数据中心.同一个网络)的研究报告称,随着数据中心继续发展和成熟,面向商业目标将把以太网推动成为数据中心唯一的网络技术. Current Analysis负责数据中心的主要分析师和这篇研究报告的作者820.html&q

数据中心网络融合技术DCB漫谈

"融合"并不是一个新词,已经成为许多技术领域的大势所趋,尤其是数据中心领域.数据中心里所讲的融合技术是对硬件层.虚拟化层.控制层以及管理层构件的全面融合,最终可以让整个数据中心资源做到统一控制,统一管理,DCB就是一种数据中心网络融合技术.DCB(Data Center Bridge)是数据中心桥接,是在数据中心中实现融合架构的电气与电子工程师协会 (IEEE) 标准,在融合架构中,存储.数据网络.群集 IPC 和管理流量全部共享同一个以太网基础结构.DCB支持基于硬件的带宽分配,这一

数据中心总经理俱乐部技术委员会在京成立

1月20日,中国数据中心产业发展联盟旗下的数据中心总经理俱乐部技术委员会成立大会在国家信息中心举行,大会通过无记名投票选举康楠为主任委员,彭少华.李红霞.张泉.文静.杜秋.尤乃峰等6人为副主任委员,邓重秋.谭杰夫.张炳华.李典林.袁晓东.庞俊英.腾达.罗志刚.叶向阳等25人为常务委员(详细名单附后). 中国信息协会副秘书长傅伯岩,数据中心总经理俱乐部主席.国富瑞数据系统有限公司总裁张念录等出席成立大会并讲话,大会由中国数据中心产业发展联盟秘书长郑宏主持. 数据中心总经理俱乐部技术委员会,是在中国