数据中心网中网技术漫谈

网络是数据中心最重要的组成部分,没有网络,就没有数据中心,这是将所有设备互连互通的唯一纽带。网络要进行工作依仗的是各种各样的协议,经过这四十多年的发展,很多网络协议已不适应现在数据中心的需要。不过,经过这么多年形成的协议标准已难以改变,这就衍生出来很多新的协议类型。这些协议不是凭空臆想出来的,而是和原始协议都有着紧密联系,与原始网络协议有着千丝万缕的联系。对原有协议直接进行修改当然不行,聪明的人类想到了很多办法,于是就有了网中网的协议。为何叫网中网协议?就是在不改变原有协议的基础上,再增加一部分报文内容,赋予新的含义,这样的网络协议具有两部分属性,也许有两个IP头,也许有两个MAC,亦是两个VLAN TAG,甚至是新增了字段,在原有IP头长度资源紧张的情况下,只有这种才能赋予网络协议更多含义,以便满足数据中心业务部署需求。

网中网技术本质上是增加了IP头的内容长度,赋予网络协议更多含义,以便更好地适应网络应用,比如我们在原始IPv4头上再增加一层IPv4头,这样拥有两层IPv4头的报文就可以在两层网络中转发,内外层IPv4均有不同含义,代表着两层网络的业务。再有我们在原始VLAN TAG上再增加一层VLAN TAG,这样拥有双TAG的报文就有了4094*4094种组合,相比一层VLAN的4094种情况,扩充了4094倍,对于那些依靠VLAN隔离或者区分业务类型的网络,这种方式可以大大增加网络部署的容量,理论上这种VLAN TAG还可以增加到三层甚至更多。还有一些协议是新增了部分字段,赋予这部分字段新的含义。比如MPLS就是在原始IP报文上增加了4字节的标签,报文通过4字节标签进行转发,提升报文转发效率,标签的层数可以是一层也可以是二层或者多层,多一层标签就可代表不同的转发路径。以太网IP报文头长度里,每个Bit都被赋予特定含义了,所以在不增加长度的情况下,已经很难再有新的协议产生,然而对网络需求又是不断增加的,新加IP报文头长度是新的网络协议的普遍做法。当然,这一做法也有副作用,就是IP报文的长度会增加,增加了报文转发的负荷,以太网报文的长度是固定的1536字节,超过就要分片,当IP报文头过长,数据部分就要缩减,这样一个报文长度所携带的数据内容就要减少,相当于网络的转发效率会降低。同时,IP报文头的增长,尤其是在对双层IP报文头进行解封装或加封装时,增加了网络的开销,给网络设备带来了更多负担。所以,网中网技术是一把双刃剑,一方面丰富了网络应用,另一方面也增加了网络开销,一个报文长度携带的数据会更少,网络中分片报文数量会增多。

网中网技术谈到这么多,有哪些网中网技术呢?其实从字面上也可以看出,网中网即在网络协议内部又套有网络协议,对IP报文头的部分内容进行复制,包括MAC、VLAN、IP等,当用一层网路协议无法代表网络转发特征时,通过这种简单叠加方式达到目的。本质上来说,这种方式缺乏技术含量,但却可以解决很多实际问题,让我们快来看看有哪些这类含义。IPv4 IN IPv4这类IP头隧道协议,比如GRE协议,IPv4inIPv4协议,IPv6inIPv4协议等,这类协议明显有两个IP头,每个IP头也可以不同,内外层IP头的IP地址和类型均可以不同,内网层IP完成不同网络区域转发,这类协议在IPv6网络中应用较广,主要考虑适应原有的IPv4组网,在原有IPv4网络基础上构建IPv6网络,因为建设全新一张IPv6网络在现有的网络环境中几乎不可能,尤其是数据中心的环境,所以这类隧道技术出现了,是IPv4和IPv6网络协议冲击过程中形成的一种过渡协议;灵活QINQ这类是VLAN Tag的封装协议,根据内部VLAN TAG再增加一层或者多层外层VLAN TAG,以便达到区分不同业务类型的目的,这类报文明显的特征是携带了多层VLAN TAG,不同的业务关心不同层级的VLAN TAG;MPLS和VXLAN都是在原有IP报文头的基础上增加了新的字段,这个字段用于转发,以便提升转发效率。新的字段实现了在原有IP网络基础上再虚拟出一层网络的结果,在虚拟网络上通过新的字段来完成转发,不考虑原始IP报文头内容,同时在原始报文网络中完成底层网络的转发,相当于在原始IP网络上再虚拟出一张虚拟网络。这张虚拟网络依靠底层网络,又脱离底层网络,实现网络资源虚拟化,将网络资源集中起来进行分配,实现网络资源的自动管理与分配;MAC-in-MAC技术标准是IEEE 802.1Qay,是在北电提出的PBT技术基础上发展起来的支持流量工程的桥接技术,通过二次封装对内层流量进行隔离,增强了以太网的可扩展性和业务的安全性,MAC-in-MAC封装中引入了24bit的I-TAG标识业务,说白了就是IP报文有两个MAC地址头。从这些网中网技术中不难看出,所有的协议都是通过增加报文协议长度,赋予报文更多含义。

如今,在数据中心里网中网的技术异常火热,这说明传统IP网络协议已无法适应新的数据中心网络需求,只有网中网的协议才能适应新一代数据中心网络的需求。不难预见,未来的数据网络里,网中网技术将更加普及。与增加网络开销相比,满足业务部署需求更加紧迫,这为网中网技术的普及提供了成长的土壤。网中网技术掀开了数据中心网络的新篇章,在当前以太网一统天下的局势之下,IP报文标准成熟的今天,网中网技术必将成为网络发展的希望,成为数据中心网络最重要的协议。

本文转自d1net(转载)

时间: 2024-10-13 09:34:09

数据中心网中网技术漫谈的相关文章

数据中心光模块技术发展方向

随着云计算.大数据等新技术商用,数据中心流量和带宽成指数级增长,根据思科预测,全球数据中心IP流量将从2015年的每年4.7ZB增长到2020年每年15.3ZB,年复合增长率约为27%.而根据LightCounting预测,到2019年数据中心光模块销量将超过5000万只,市场规模有望在2021年达到49亿美元,这将是光模块厂商的一个巨大的机遇.同时我们也可以看到光模块在数据中心的应用与传统电信传输市场有一些区别,在这里简单的聊一下数据中心光模块技术发展方向. 目前市场上对数据中心光模块的要求可

数据中心防雷SPD技术漫谈

雷电是大自然里一种普遍现象,在世界的任意角落都会有雷电天气出现,只不过数量不同而已.雷电对大地及地面物体的放电现象成为雷击,这种放电过程会产生强烈的闪电并伴随巨大的声音,对被击物体有严重的危害,会在物体的两端形成强烈的压差,如果是人则超过220V将对人体造成伤害,如果是电子设备,则会造成一些元器件的故障,防雷成为了各个技术领域都不能回避的问题.在数据中心里,过电压防护是安全运行的重要环节,一般都会在数据中心里增加防雷装置,但如果防雷装置质量不佳或配置不当,在过电压冲击下会导致防护装置失效,引起电

在数据中心里SDN技术发展现状

SDN技术相信大家都已不陌生,很多人甚至都已耳朵听出了老茧.经过一段时间的争议期后,SDN终于得到了部分数据中心市场的认可,相关市场规模开始不断扩大,预计2015年SDN交换机和控制器的市场规模将超过14亿美元,而到了2019年,这一数字将达到120亿美元.SDN技术逐渐得到了数据中心市场的认可,为数据中心的发展带来了勃勃生机,这与几年前SDN技术刚提出来时迥然不同,很多技术保守派不再无视SDN技术的存在,开始接受.甚至喜欢上SDN技术,这样市场机会就出来了.相比几年前空谈SDN技术,现在已经开

数据中心服务器节能技术漫谈

每次走进数据中心机房,都能看到一望无际的机架上摆放着满满的都是服务器.在数据中心里,服务器的数量多少决定了这个数据中心的业务处理能力,而中大型的数据中心里服务器都是以数千台来计算的,按照一个机架放置10台服务器,大型数据中心就需要数百个机架.这样巨量的服务器设备同时运转,按照每台运行功率300W来计算,一万台就要3千KW,所以如果每台服务器都能节省一点能耗,一万台服务器节省的能耗就非常可观.因此有不少的专家从服务器入手,在服务器上下功夫,在不降低服务器运行性能的前提下,尽量降低运行的能耗,下面就

解决数据中心网速慢的八个检查必备步骤

在数据中心运行过程中,不可避免会出现各种各样的问题.若网络发生信息不通.网页不能浏览等连通性故障时,这类故障现象的故障点很容易检查和定位,解决起来并不困难. 但是网络如果是通的,而网速变慢.遇到这种"软"故障,就比较令人头痛, 有的人 往往就会束手无策.一旦遇到这类问题时,需要有一个定位问题的基本思路,这样就能帮助我们在日常维护中有条不紊地找到问题的真实原因.第一:检查设备CPU占用率.数据中心里的设备少则数百,多则上万,不可能都去依依检查CPU.需要先明确哪个业务慢,了解这个业务在数

解决数据中心网速变慢的八个检查必备步骤

在数据中心运行过程中,不可避免会出现各种各样的问题.若网络发生信息不通.网页不能浏览等连通性故障时,这类故障现象的故障点很容易检查和定位, 解决起来并不困难.但是网络如果是通的,而网速变慢.遇到这种"软"故障,就比较令人头痛,有的人往往就会束手无策.一旦遇到这类问题时,需要有一个定位 问题的基本思路,这样就能帮助我们在日常维护中有条不紊地找到问题的真实原因.   第一:检查设备CPU占用率 数据中心里的设备少则数百,多则上万,不可能都去依依检查CPU.需要先明确哪个 业务慢,了解这个业

数据中心网络设备不间断业务升级技术漫谈

数据中心需要全年无中断运行,提供7*24小时的全天候服务,一旦出现中断必然对业务造成影响,有时都是按秒来计算费用的,对于一些大型的互联网数据中心,中断几分钟就会减少数千万的收入,所以他们对数据中心故障是零容忍的.然而,再好的设备都不可能从来不出问题,尤其随着运行时间的延长,各种器件开始老化.软件缺陷不断暴露,出现这样那样的问题,只不过我们可以通过各种冗余设计,及时将业务切换到备用环境中,让业务继续运行,然后来排除问题.等将问题解决后,再将业务切换回来.从用户层面并不会感知到这个切换过程,依然可以

透视数据中心中的25G、50G和100G技术

企业和云级网络的数据中心中各种"G"比比皆是,是时候搞清楚他们的性能了. 云计算的兴起和数据中心的扩展推动着最新的以太网速度升级,而基于云技术的大数据也已然增加了运营商的工作负载.为满足这一需求,数据中心通过增加与现有基础设施并行的带宽能力实现扩展.预期中25G和100G以太网部署的快速增长就是这一趋势的明证. 为了能够处理不断增大的数据负载,业界最大规模的远距离云企业已纷纷与他们核心网络的数据中心运营商一起,共同转向使用 100G以太网架构.不过大多数运营商认为,对服务器连接来说,1

数据中心网络里的链路检测技术漫谈

2017年1月14日,Ucloud云北京B区的业务发生了中断,中断的原因是运营商施工原因导致B区数据中心机房到北京核心汇聚点的两对光纤同时被挖断,导致业务中断.这让人想起了2015年5月的支付宝业务中断事件,也是运营商网络光纤被施工挖断导致,当时是四条大对数光缆中断.互连的光纤链路出现中断这类突发事件,如果没有一些备份和监控措施,就会导致业务受到影响.实际上,在数据中心内外部,类似于这样的链路故障问题时有发生,只不过这两个例子是影响比较大的.那么,数据中心怎么才能提前做好链路检测工作,避免发生类