盘点管理大数据存储的十大技巧

在1990年,每一台应用服务器都倾向拥有直连式系统(DAS)。SAN的构建则是为了更大的规模和更高的效率提供共享的池存储。Hadoop已经逆转了这一趋势回归DAS。每一个Hadoop集群都拥有自身的——虽然是横向扩展型——直连式存储,这有助于Hadoop管理数据本地化,但也放弃了共享存储的规模和效率。如果你拥有多个实例或Hadoop发行版,那么你就将得到多个横向扩展的存储集群。

而我们所遇到的最大挑战是平衡数据本地化与规模效率,这是一个鱼与熊掌兼得的话题。

数据本地化是为了确保大数据集存储在计算节点附近便于分析。对于Hadoop,这意味着管理数据节点,向MapReduce提供存储以便充分执行分析。它实用有效但也出现了大数据存储集群的独立操作问题。以下十项是Hadoop环境中管理大数据存储技巧。

1.分布式存储

传统化集中式存储存在已有一段时间。但大数据并非真的适合集中式存储架构。Hadoop设计用于将计算更接近数据节点,同时采用了HDFS文件系统的大规模横向扩展功能。

虽然,通常解决Hadoop管理自身数据低效性的方案是将Hadoop 数据存储在SAN上。但这也造成了它自身性能与规模的瓶颈。现在,如果你把所有的数据都通过集中式SAN处理器进行处理,与Hadoop的分布式和并行化特性相悖。你要么针对不同的数据节点管理多个SAN,要么将所有的数据节点都集中到一个SAN。

但Hadoop是一个分布式应用,就应该运行在分布式存储上,这样存储就保留了与Hadoop本身同样的灵活性,不过它也要求拥抱一个软件定义存储方案,并在商用服务器上运行,这相比瓶颈化的Hadoop自然更为高效。

2.超融合VS分布式

注意,不要混淆超融合与分布式。某些超融合方案是分布式存储,但通常这个术语意味着你的应用和存储都保存在同一计算节点上。这是在试图解决数据本地化的问题,但它会造成太多资源争用。这个Hadoop应用和存储平台会争用相同的内存和CPU。Hadoop运行在专有应用层,分布式存储运行在专有存储层这样会更好。之后,利用缓存和分层来解决数据本地化并补偿网络性能损失。

3.避免控制器瓶颈(Controller Choke Point)

实现目标的一个重要方面就是——避免通过单个点例如一个传统控制器来处理数据。反之,要确保存储平台并行化,性能可以得到显著提升。

此外,这个方案提供了增量扩展性。为数据湖添加功能跟往里面扔x86服务器一样简单。一个分布式存储平台如有需要将自动添加功能并重新调整数据。

4.删重和压缩

掌握大数据的关键是删重和压缩技术。通常大数据集内会有70%到90%的数据简化。以PB容量计,能节约数万美元的磁盘成本。现代平台提供内联(对比后期处理)删重和压缩,大大降低了存储数据所需能力。

5.合并Hadoop发行版

很多大型企业拥有多个Hadoop发行版本。可能是开发者需要或是企业部门已经适应了不同版本。无论如何最终往往要对这些集群的维护与运营。一旦海量数据真正开始影响一家企业时,多个Hadoop发行版存储就会导致低效性。我们可以通过创建一个单一,可删重和压缩的数据湖获取数据效率

6.虚拟化Hadoop

虚拟化已经席卷企业级市场。很多地区超过80%的物理服务器现在是虚拟化的。但也仍有很多企业因为性能和数据本地化问题对虚拟化Hadoop避而不谈。

7.创建弹性数据湖

创建数据湖并不容易,但大数据存储可能会有需求。我们有很多种方法来做这件事,但哪一种是正确的?这个正确的架构应该是一个动态,弹性的数据湖,可以以多种格式(架构化,非结构化,半结构化)存储所有资源的数据。更重要的是,它必须支持应用不在远程资源上而是在本地数据资源上执行。

不幸的是,传统架构和应用(也就是非分布式)并不尽如人意。随着数据集越来越大,将应用迁移到数据不可避免,而因为延迟太长也无法倒置。

理想的数据湖基础架构会实现数据单一副本的存储,而且有应用在单一数据资源上执行,无需迁移数据或制作副本

8.整合分析

分析并不是一个新功能,它已经在传统RDBMS环境中存在多年。不同的是基于开源应用的出现,以及数据库表单和社交媒体,非结构化数据资源(比如,维基百科)的整合能力。关键在于将多个数据类型和格式整合成一个标准的能力,有利于更轻松和一致地实现可视化与报告制作。合适的工具也对分析/商业智能项目的成功至关重要。

  1. 大数据遇见大视频

大数据存储问题已经让人有些焦头烂额了,现在还出现了大视频现象。比如,企业为了安全以及操作和工业效率逐渐趋于使用视频监控,简化流量管理,支持法规遵从性和几个其它的使用案例。很短时间内这些资源将产生大量的内容,大量必须要处理的内容。如果没有专业的存储解决方案很可能会导致视频丢失和质量降低的问题。

10.没有绝对的赢家

Hadoop的确取得了一些进展。那么随着大数据存储遍地开花,它是否会成为赢家,力压其它方案,其实不然。

比如,基于SAN的传统架构在短期内不可取代,因为它们拥有OLTP,100%可用性需求的内在优势。所以最理想的办法是将超融合平台与分布式文件系统和分析软件整合在一起。而成功的最主要因素则是存储的可扩展性因素。
原文发布时间为:2016年10月10日

时间: 2024-08-03 03:59:03

盘点管理大数据存储的十大技巧的相关文章

管理大数据存储的十大技巧

在1990年,每一台应用服务器都倾向拥有直连式系统(DAS).SAN的构建则是为了更大的规模和更高的效率提供共享的池存储.Hadoop已经逆转了这一趋势回归DAS.每一个Hadoop集群都拥有自身的--虽然是横向扩展型--直连式存储,这有助于Hadoop管理数据本地化,但也放弃了共享存储的规模和效率.如果你拥有多个实例或Hadoop发行版,那么你就将得到多个横向扩展的存储集群. 而我们所遇到的最大挑战是平衡数据本地化与规模效率,这是一个鱼与熊掌兼得的话题. 数据本地化是为了确保大数据集存储在计算

2017年大数据领域的十大趋势

文章讲的是2017年大数据领域的十大趋势,曾有媒体将2013年称为"大数据元年",经过两三年大数据依然热度不减,但是也有专家认为前几年大数据一直处于一个很尴尬的局面,大数据不接地气,人人都在谈大数据,但真正应用大数据的人很少.2016年,各行各业的大数据应用都渐渐从空洞的理论落地,所以很多专家认为2016年才是真正意义上的大数据元年. 无论如何,大数据已经成为IT领域的流行趋势.据不完全统计,2016年1-6月,全球大数据行业共计发生157起投融资事件,涉及金额超过600亿元,亚马逊.

IDC周震刚:中国大数据市场的十大预测

2012年7月24日,主题为"芯动大数据 智领大机遇"的英特尔大数据论坛在北京举行.会上,IDC中国企业级系统与软件研究部高级研究经理周震刚分享了大数据市场的观察. IDC中国企业级系统与软件研究部高级研究经理周震刚 周震刚表示,IDC一直把大数据.云和移动以及社交这四个主题当做未来IT的主要方向.IDC在大数据方面已经做了大概三四年的研究,IDC中国从去年开始对大数据市场做了深入研究. 什么是大数据?--四个"V" 周震刚介绍道,IDC对大数据的定义是四个&quo

大数据营销的十大切入点

2013年似乎人人都在谈论大数据,然而说得云里雾里者多.许多企业家更关心的事是:如何才能真正找到大数据营销的切入点? 大数据营销的十大切入点 许多人感觉到大数据时代正在到来,但往往只是一种朦胧的感觉,对于其真正对营销带来的威力可以用一个时髦的词来形容--不明觉厉.实际上,还是应尽量弄明白,才会明白其厉害之处.对于多数企业而言,大数据营销的主要价值源于以下几个方面. 第一,用户行为与特征分析.显然,只要积累足够的用户数据,就能分析出用户的喜好与购买习惯,甚至做到"比用户更了解用户自己".

全国首部《大数据蓝皮书》指出:中国大数据发展呈现十大新趋势

大数据战略重点实验室研究编著.社会科学文献出版社出版的<大数据蓝皮书:中国大数据发展报告No.1>(简称<大数据蓝皮书>)5月28日正式发布.作为全国首部<大数据蓝皮书>,从制度.技术.产业和学科建设等层面对大数据的发展进行分析与研判,并提出中国大数据发展的十大新趋势. 趋势之一:丰富细致的政策体系助推大数据落地.从中央到地方,更加丰富的配套政策与实施细则将促进大数据加快落地,更多地方政府积极推进大数据发展,并在大数据政用.商用.民用领域打造大数据应用的典范. 趋势之二

贵阳打造创新型中心城市 大数据引领打造十大工程

<中共贵阳市委关于以大数据为引领加快打造创新型中心城市的意见>提出四大配套文件,其中<以大数据为引领打造创新型中心城市的十大重点工程>提出要打造数据资源汇聚工程,数据共享开放工程,数据铁笼工程,数据政务工程,数据民生工程,数据扶贫工程,数据产业集聚工程,大数据助推产业升级工程,数据金融工程,以及数据立法.安全与标准工程十大工程. 其中提出,贵阳市将建设"云上贵州·贵阳平台",搭建统一汇聚全市各部门政务数据和公共数据的贵阳市政务数据资源中心,同时大力引导和鼓励其他

2017年大数据发展的十大趋势以及在各行业的应用潜力

2016年,大数据已从前两年的预期膨胀阶段.炒作阶段转入理性发展阶段.落地应用阶段.2017年,大数据依然处于理性发展期,依然存在诸多挑战,但前景依然非常乐观.2017年大数据的发展呈现十大趋势: 趋势1:越来越多的企业实现数据孤岛的打通,驱动大数据发挥更强的威力 企业启动大数据最重要的挑战是数据的碎片化.在很多企业中尤其是大型的企业,数据常常散落在不同部门,而且这些数据存在不同的数据仓库中,不同部门的数据技术也有可能不通,导致企业内部数据无法打通.若不打通,大数据的价值则难以挖掘.大数据需要不

大数据思维的十大核心原理

大数据思维是客观存在,大数据思维是新的思维观.用大数据思维方式思考问题,解决问题是当下企业潮流.大数据思维开启了一次重大的时代转型. 大数据思维原理是什么?笔者概括为10项原理. 一.数据核心原理 从"流程"核心转变为"数据"核心 大数据时代,计算模式也发生了转变,从"流程"核心转变为"数据"核心.Hadoop体系的分布式计算框架已经是"数据"为核心的范式.非结构化数据及分析需求,将改变IT系统的升级方式:

盘点大数据商业智能的十大戒律

如今,各路企业和组织都不再使用上一代架构来存储大数据.既然如此,为什么还要使用上一代商业智能(BI)工具来进行大数据分析呢?在为企业选择BI工具时,应该遵守以下"十诫". 第一诫:不要转移大数据 转移大数据代价高昂:毕竟,大数据很"大",如果打包转移,负担太重.不要将数据提取出来,做成数据集市和数据立方,因为"提取"就意味着转移,会在维护.网络性能附加处理器方面造成纷乱庞杂的问题,出现两个逻辑上相同的备份.让BI深入更底层运行数据就是大数据萌发的