数据中心内独享与共享技术

数据中心里部署有各种各样的系统,其中数据处理系统是最为重要的部分,主要由服务器、网络、存储等设备组成,这里有各种资源,比如:带宽、计算能力、存储空间等,这些资源可以是共享的,也可以是独享的,具体要看是怎样的应用。顾名思义,通俗的讲“共享”就是与大家合用的概念。“独享”就是自己用的概念。在数据中心里,常常指使用那些带宽、计算、存储资源的方式。本文就来详细讲一讲,数据中心内的独享与共享技术。首先从数据中心内部的各种IT资源讲起。
带宽

带宽资源如果采用的是共享方式,数据中心会默认对每个机架配备一定的带宽资源,然后由这个机架内的所有服务器去共享使用这些带宽,不去关心每台服务器具体的带宽使用情况。如果采用的是独享方式,整个带宽资源归属于一个客户,所以是按照独享带宽的最高值进行收费,而不在于客户实际使用量。共享带宽的好处就是经济,对于这种方式,托管费就只是按照服务器的U数来定价收费,不会再另收带宽费用。 共享带宽最大弊病在于一个机架内甚至是几个机架内,所有服务器合用一定量的带宽。根据每台服务器应用不同,有的服务器会抢占比较大的带宽,这样一来就会影响其他服务器的带宽使用。这种抢占带宽的应用一般是视频、下载类的服务器居多,所以共享带宽只能应用于对带宽几乎没有特殊要求的小型托管业务客户。独享带宽的优点是可自由使用带宽量,能保证速度和网络质量。比如购买了数据中心里一个机架上的100M独享带宽资源访问,那么机架里只放了一台服务器,而这台服务器哪怕只使用了1M的带宽,这个客户还是必须按照一个机架的机位费和100M独享带宽的带宽费来全额支付费用。显然独享方式费用昂贵,同时会存在一定的浪费现象。

计算

数据中心拥有成千上万台的服务器设备,这些服务器往往形成一些服务器集群,集中计算,这些集群往往不只为一个应用计算服务,可以同时向多个应用服务,尤其随着服务器虚拟化技术的普及,一个服务器就可以向多个应用提供服务,只要服务器上多开启几个虚拟机就可实现。当然也有一些计算资源是独享的,专门给一个应用计算使用,避免共享方式对应用计算有干扰。共享计算是指多个应用系统共用一台或者数台服务器提供的计算资源,在计算资源紧张时,不可避免应用系统之间会互相抢资源,容易出现应用系统运行不稳定情况,有的应用系统反应快,而有的应用系统反映慢,不好控制。独享计算则不会遇到这类问题,一个应用独享一块计算资源,只要计算资源是够用的,应用系统就可以尽情使用。独享计算和共享计算的区别明显的地方就是,价格不同,独享费用高昂,而共享则费用少很多。

存储

与带宽、计算资源类似,存储资源也是有独享和共享两种方式,我们可以设计几台服务器指向固定的几台存储设备读写数据,也可以仅允许特定的服务器向特定的存储设备读写数据,具体要看业务如何规划。将存储设备放大了看,可以分为很多存储空间,这些空间也可以实现服务器共享和独享两种方式的访问。这就像是电脑磁盘,我们可以划分几个磁盘,不同的磁盘保存不同的数据,有时一个磁盘放不下可以放到另外一个磁盘上。对于存储设备,不同的数据存储到哪些存储空间,是独享还是共享,都是可设计的。

独享与共享技术的区别

经过以上的介绍,无论是哪种资源,有的客户访问的资源是共享的,而有的客户访问的资源是独享的。独享与共享的区别主要是在数据中心资源的分配方式上吗?其实不然,除此资源分配方式之外,其实在其它方面也有很多地方有差异:两者技术应用的网络位置不同,比如共享带宽就是从三层交换机出来一个端口的双绞线接入机柜层的交换机,再由机柜层的交换机接入各个机柜的交换机,各个机柜的交换机再接入到具体的服务器。独享带宽少了一层或两层的交换机,每个交换机设定固定的带宽,只要你在允许的带宽范围内,就可以毫无阻力的享受高速度。设备不同,不仅是层级不同,设备本身的稳定性和吞吐量也有很大的差别;两种技术应用的发生故障概率不同,独享设备的层级永远高于共享设备。每高一级,每减少一跳,稳定性是呈现级数增长的,反之故障率也呈级数增长。共享故障率高于独享,而且某些由于流量引起的“故障”不能算作故障,但确实又在一定程度上导致客户的不便,客户非要共享带宽实现独享的效果的确强人所难吧。两种技术应用的投资成本不同,独享自然要比共享投入成本要高得多,独享有时让数据中心显得不是那么节约,存在严重的浪费资源现象,不过有客户就是愿意花大价钱购买专用的通道,数据中心自然愿意为这样的大客户建设独享系统,这就好比是飞机的头等舱,虽然比经济舱贵上好几倍,还是有很多高端人士选择头等舱,以便不被外人所打扰。

独享和共享两种方式在数据中心里普遍存在,满足于不同需求的客户。单从技术角度来看,两种技术实现均不存在难度,也较为成熟,主要从数据中心的实际发展角度出发,采用哪种或者偏重于哪一种。实际上,两种方式在数据中心里是普遍存在的,甚至是在同一个数据中心内部,这样更方便数据中心做业务部署,满足不同客户的访问需求。

本文转自d1net(转载)

时间: 2024-10-31 03:06:16

数据中心内独享与共享技术的相关文章

深入浅出数据中心内走线技术

说到数据中心布线,大家都不陌生,都知道是实现所有设备之间的互连.实际上,没有那么简单,否则布线也不会衍生为一专门的技术,数据中心在进行布线设计时,要有专门的设计团队,施工时要请专业的布线工程师进行布线,所有这些都说明布线不是简单的事儿.数据中心布线包含很广:有机房内布线.机房外布线和支持空间,数据中心赖以生存的水.电.通风都要走布线,数据中心消防.监控.照明等也离不开布线,在数据中心里布线无处不在,要将这些布线统统研究清楚并非易事.篇幅有限,我们就先来研究一下数据中心机房内布线的走线方式. 谈到

揭秘IDC商家——独享与共享带宽的区别

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 100M共享与2M.5M.10M独享有什么区别?那个好? 当然独享好啊,虽然100M听着好像很好,可是如果不是独享的话,有的时候用着还不如2M独享,共享是你很别的一些客户共同使用这一个带宽资源,而独享就是你自己使用,所以很稳定. 独享与共享,小心黑心的商家欺骗 百兆共享,就是整个机房内部采用100M带宽连接,一般来说一个机柜的总带宽只有10M

为什么数据中心内不应充斥着孤岛?

随着大量新的云技术的出现,许多公司开始认真考虑通过哪种平台技术实现标准化,他们中的许多公司考虑先进行实验,或是在其他公司取得成功之前进行观望.过分追求最新技术将导致用户需要维护过多的平台,而这些平台在数据中心内将彼此成为孤岛. 对于大多数行业来说,应用的快速开发和部署正在成为了他们的最低需求.竞争压力意味着公司不可能观望太长时间. 以容器为例,它们有意成为一个通用构件,以鼓励对资源的重复使用,同时它们还承诺将减少涉及打包.部署和管理应用方面的繁琐操作.尽管LXC(Linux容器)和其他形式的隔离

数据中心需要更先进的冷却技术

保持最佳工作温度对许多数据中心来说是一个挑战.然而,冷却的空气越多,需要的电能越多.而且提供更多的冷却能力,数据中心提供商将承担更多的运营费用. 另外,当数据中心没有得到正确冷却时,IT设备可能会过热.过热可能会降低服务器性能或损坏硬件.因此,管理空气流量对性能,成本和能源效率有重大影响. 当冷却数据中心时,其目标是防止IT设备排放的热空气再循环.而存在几种改善冷却方式的方法,其包括高架地板,冷/热通道遏制,混合动力技术等. 以下广受欢迎的有效的冷却技术: (1)高架地板.IT人员可以通过使用高

是时候更换数据中心内RJ-45连接器了吗?

现在是时候用USB-C替代数据中心内的RJ-45连接器了吗?我知道你们会说:"这是什么东西?没有什么可以取代我的水晶头--" 诚然,通用串行总线(USB)是设备到主机,没有两个路由器或交换机不是端到端.USB还是一个低级别标准,不是专门用于以太网数据包.虽然我们可信赖的铜线以太网已经有几十个继承替代品,但还没有哪个替代品暂时可以占主导地位.但也许,我们应该要准备更换了,特别是在计算密集型数据中心. 不屈不挠的廉价的水晶头 除了功耗,IT中是否有比RJ-45更长久和普及的连接器吗?当然,

数据中心新的自动化运维技术

自从数据中心引入了云计算.虚拟化等大咖技术,立刻变了模样,这些技术大幅提升了数据中心的运行效率,给数据中心带来了诸多好处.不过,任何事情都有两面性,我们在享受新技术带来的益处时,也给数据中心运维的管理带来了不便,需要管理对象的数量.规模及复杂度均呈现指数级增长,传统人工干预.保姆式管理监控与故障处理的方式肯定无法满足要求了.比如对于公有云及大型私有云,服务器数量往往可以达到数万到数十万.百万规模,各类系统云服务及租户的业务应用负载数量,也达到了数以百万乃至千万级的程度,这样全靠人工维护不现实,必

实现数据中心间互通的纽带——DCI技术

现在的数据中心早已不是一座孤立的机房,而是一个建筑群.一个数据中心可以包含很多个分支数据中心,可以说是一个数据中心群,这些分支数据中心所处的位置不同,却可以通过网络互联起来,共同完成相应的业务部署.像阿里.腾讯.百度等这些大型互联网公司,为了提升客户访问体验,会在不同省会都会建立自己的数据中心分支机构,以便满足不同地区的客户访问需求,数据中心早已不再局限于一座或几座机房.这些数据中心要协同运转,就需要相互之间交互信息,这就有了互连需求,产生了DCI网络,即Data Center Inter-co

高密度数据中心内的配电即系统

曾几何时,为了能够积极主动地管理不断上涨的电力成本,使得数据中心内的配电系统俨然成为了数据中心运营商们的一大主要的关注领域.更具体地说,其是为了帮助操作运营人员们实时的识别运行过程中的电力消耗的潜在问题,并杜绝浪费.而随着越来越多的具备未来思维的企业组织开始广泛的分享他们在设施和IT管理过程中所总结的知识和经验,使得这种基于机架的电力基础设施中推动了更加的智能化已然变成了更高的机架功率密度的当务之急.事实上,在企业数据中心内的分配链中的所有阶段实施积极主动DE 电源管理已经成为效率研究和数据中心

数据中心内虚拟机迁移带来的网络技术难题

虚拟机是指通过软件模拟的具有完整硬件系统功能的.运行在一个完全隔离环境中的完整计算机系统.通过虚拟化软件,用户可以在一台物理服务器上模拟出一台或多台虚拟的服务器,服务器硬件资源经过虚拟化技术变成一个可以拆分的资源,拆分后的资源也就是一个个虚拟机,都拥有完整的原有硬件可提供的服务能力.虚拟机拥有一个杀手级的方案,就是虚拟机的在线迁移技术.所谓在线迁移,也就是可以在不停机的情况下,将虚拟机从一台物理服务器迁移到另外一台物理服务器上,迁移过程不影响虚拟机的正常运行,也就不会影响用户跑着虚拟机上的业务.