LinkedIn数据中心的100G技术改革

LinkedIn的持续发展使得我们必须在未来的3-5年间将我们的数据中心发展到一个宏大的规模。Altair项目是我们创建大规模可扩容数据中心的途径。新的LinkedIn数据中心正在Oregon建设中,内部称作LOR1,这将是我们构建的第一个大容量数据中心架构,这将引领我们将服务器的级别从万级走向十万级。这个数据中心的新型网络架构可以支持根据需要扩充服务器数量,而且利用10/25/50/100的技术阶梯来支持使用不同网络连接的混合多层的服务。

在这篇博客中,我们将阐述我们是如何利用100G技术构建高度可扩容且成本高效软件的,这将引领我们的系统进入下一代的数据中心。

LOR1网络架构

LOR1数据中心的网络网络是基于一个4面5阶段的Clos网络构建,我们决定只使用1RU 的机柜构建整个数据中心的网路,以支持6位数起的服务器。

LinkedIn的四个数据中心都是基于pod配置构建的,一共64个pod,每个pod有数千台服务器,由于pod之间独立构建并且可以优化本地流量,为扩容及过渡到大型数据中心环境需要,我们创建了一个扁平网络使用固定的端对端延时和过载率。我们网络的一些特色如下:

1. 骨干网络无过载 (1:1)

2. 端对端过载超过6:1

3. 解决端到端延迟 – 所有的交换机都是单芯单跳的

4. 只使用1RU的交换机柜

5. 整个数据中心使用同样的交换 (32x100G)

6. 基于上述过载的六位数服务器容量

7. 网络容量与服务数实现三级上载

8. 易于管理,易于扩容

9. 简单!

以100G为基准技术

为了适配100G技术,我们发现自己处于一种困境当中。一方面,在一线使用的时候有很多好处,比如容量、特征、规模等;另一方面,费用是一个问题。在LinkIn我们成功打破了这个矛盾。我们利用 PSM4技术解决了这个问题。我们使用100GPSM技术并按50G划分配置。这使我们可以从最新的交换技术中获利,光连接的价格是使用40G光纤互联的一半。

关注单端口的成本,40G光模块(单点模式)如LR4-Light与PSM4模块成本相当。但是每个PSM4模块却可以传输两个节点而且还比LR4-Light多25%的带宽。

从大的角度上讲数据中心(即使一个较小的尺度),对于投资者的资本支出可以节省数百万美元,而且更快更好。出于保密原因,我们不能分享具体的支出数据,但是我希望大家都根据自己的环境计算下到底能省多少钱。

这个解决方案的唯一挑战是在一个物理端口上分享两个逻辑端口,称作四通道SFP (QSFP)接口。以工业上大容量交换机的观点来看,我们有足够的端口来处理这个问题,但是我们需要光模块供应商给我们提供50G的模块,PSM2或者CWDM2。这将是任何数据中心从10/40G网络迁移到10/25/50/100G网络的理想方式,并且将带领整个产业进入下一个层次。我想号召一下,如果你有志于50G技术的开发,让我们一起把它变为现实吧。

将来的开发计划

在LinkedIn,我们计划继续驱动光网络技术在一线的应用,以及未来数据中心的连接技术。我们期待200G技术和一个8通道版的QSFP,这样就能解决QSFP的缺点,也能突破200G/400G成本高效网络技术。我们也将继续支持和激活数据中心各个维度的创新,从网络和连接到服务和存储。

综述

我们构建了一个以100G为基线技术的高可扩展且成本高效的数据中心技术,主要利用将100G分为两个50G的思路。我们将继续努力建设最好的数据中心,来保证LinkedIn未来数年的应用和服务创新。

本文转自d1net(转载)

时间: 2025-01-19 14:18:26

LinkedIn数据中心的100G技术改革的相关文章

数据中心网络的根本改革

现在正是技术和经济发展的强势阶段,而数据中心则刚好处于这一阶段的核心位置.云计算带领着处理器.存储.安全和软件等技术不断推动着技术和经济往前发展,与此同时,这一发展也将传统的数据中心网络功能冲击得有些捉襟见肘.就我们所知,云计算的资源共享机制在大幅度节约成本的同时,也增强了灵活性.此外云计算也支持"随收随付(Pay -as-you-go)"的模式.但是数据中心的内联网依然需要连接数据中心内的所有服务器.存储器.设备和路由器等.所以想要完全实现云计算,数据中心网络的根本性改革必不可少.

是不是要上天?数据中心网络带宽100G还不够?

数据中心的组成中网络设备是必不可少的硬件之一,它就像血管一样串联起各个设备,同时也将数据源源不断的输入和输出,目前炙手可热的云计算.大数据及智慧城市都要依仗网络. 根据Synergy Research Group的最新数据显示,2016年12月时全球超大规模提供商运营的大型数据中心的数量已突破300.其中中国占8%. 随着人们对信息处理的需求不断增大,互联网企业早已将流量视为金钱,有流量就有钱.而数据中心是处理流量最重要的场所,中国市场又无比巨大,数据中心的迅速崛起,大型数据中心接踵建设也就不足

简析数据中心三大Overlay技术

搭建大规模的云计算环境需要数据中心突破多种技术难题,其中虚拟化是云计算最为显著的特征.要满足虚拟机在数据中心任意网络位置之间都可以无感知迁移,就需要引入一些新的网络技术,Overlay技术就是在这样的背景下产生的.Overlay技术指的是一种网络架构上叠加的虚拟化技术模式,其大体框架是对基础网络不进行大规模修改的条件下,实现应用在网络上的承载,并能与其它网络业务分离,并且以基于IP的基础网络技术为主.Overlay可以理解是一种隧道封装技术,这样大家都不会陌生,像IPv4inIPv4.GRE.M

数据中心跨机房技术实现的现实阻力

现在的数据中心往往是由很多个机房组成的,机房可能遍布于世界各个角落,以满足全球各地用户访问的需求.这些部署在世界各地的机房,有的是为了提升本地用户的访问体验,有的是为了做机房的业务备份,也有的是集群业务扩容的需要.不管在部署什么的业务,做跨机房的时候,都要充分考虑可能面临的问题,以便在跨机房部署时避免犯错.下面就来详细谈一谈,跨机房的业务部署时,数据中心要考虑哪些可能遇到的问题. 带宽 处于不同地区的两个或者多个机房要打通,很多时候要经过广域网才行.当然,有些实力超强的数据中心也可能单独建设一条

长城电脑数据中心服务器电源技术获奖

本文讲的是长城电脑数据中心服务器电源技术获奖,[IT168 资讯]"2014年度中国电子学会科学技术奖"于日前正式揭晓,中国长城计算机深圳股份有限公司(简称长城电脑)提交的"数据中心服务器电源技术研发与产业化项目"以其领先的创新技术成功荣获"科技进步类二等奖".该项目研制难度大,创新性强,属国内首创,不仅是长城电脑在电源及服务器领域长期以来深厚技术积累的结晶,也填补了国内空白,打破了我国在高端服务电源领域长期依赖进口的尴尬局面,代表着我国在高端服

数据中心网络虚拟化技术概要

随着云计算和大数据等新兴应用的快速发展,"数据中心即计算机"(data center as a computer)的技术发展趋势逐渐明朗.数据中心作为一台计算机,与传统的高性能计算机具有很大的不同.在高性能计算领域,因为服务器被独占式的分配给租户使用,所以其主要的优化目标是"算得快".但是在云计算领域,为了提高数据中心的利用率.降低其运营成本,服务器整合(server consolidation)技术将成为常态.此时,服务器内将同时运行不同租户.不同应用的实例.一般

软件定义数据中心的关键技术与应用

软件定义数据中心(SDDC)的概念最早于2012年由VMware首次提出,指通过软件实现整个数据中心内基础设施资源的抽象.池化.部署和管理,满足定制化.差异化的应用和业务需求,有效交付云服务.传统数据中心架构复杂且缺乏灵活性,业务与基础设施紧耦合,应用系统受制于软硬件之间的依赖关系,同时传统数据中心运维管理复杂,资源利用率低,维护成本高.SDDC概念的提出,是云计算.软件定义.DevOps.基础设施快速灵活部署等一系列技术与需求在数据中心的具体实现,通过SDDC实现了以用户为中心.以服务为导向,

以太网将成为数据中心唯一网络技术

据http://www.aliyun.com/zixun/aggregation/18224.html">市场研究公司Current Analysis最新发表的题为"One Love,One Data Center,One Network"(同一个爱.同一个数据中心.同一个网络)的研究报告称,随着数据中心继续发展和成熟,面向商业目标将把以太网推动成为数据中心唯一的网络技术. Current Analysis负责数据中心的主要分析师和这篇研究报告的作者820.html&q

数据中心网络融合技术DCB漫谈

"融合"并不是一个新词,已经成为许多技术领域的大势所趋,尤其是数据中心领域.数据中心里所讲的融合技术是对硬件层.虚拟化层.控制层以及管理层构件的全面融合,最终可以让整个数据中心资源做到统一控制,统一管理,DCB就是一种数据中心网络融合技术.DCB(Data Center Bridge)是数据中心桥接,是在数据中心中实现融合架构的电气与电子工程师协会 (IEEE) 标准,在融合架构中,存储.数据网络.群集 IPC 和管理流量全部共享同一个以太网基础结构.DCB支持基于硬件的带宽分配,这一