大数据,Hadoop,存储应用的第三极

数字化转型是当今IT应用的标杆和旗帜,也是讨论最热门的话题。在我看来,数字化转型有两个方面的含义:一是与生产、业务相关的过程尽可能实现数字化,能保留数据全部进行保留;二是基于数据展开分析,动用大数据、人工智能等技术手段,透视数据背后的秘密,产生价值,知道企业生产和业务决策。

对于数字化转型的第一阶段,绝对是一个“烧钱”的阶段,但对于企业来说,这是一个必要条件,具备了数字化的能力不一定确保企业成功,但没有第一阶段数字化、数据积累,企业在未来的竞争中,一定打不过哪些数字化成功转型的企业。与第一阶段的“烧钱”相比,第二个阶段对数据进行洞察,将更加重要,也更为关键,这就离不来大数据技术。

经过多年的信息化应用,企业积累了大量的数据,但以往这些数据无法有效关联在一起,Hadoop分布式系统基础架构的出现,为大数据技术应用奠定基础,创造了条件。不同于传统磁盘阵列,也不同于ServerSAN或者超融合的数据存储和组织方式,Hadoop会成存储市场上的第3类存储吗?

Hadoop会成存储第3级吗?

Hadoop,数据存储和导入

无论是单独构建集群系统,规模视情况而定?还是选用市场现有的大数据一体机,用户都需要一个单独平台进行大数据分析处理,系统构建完成之后,首先要把数据导入。

企业数据如何导入Hadoop系统?系统又如何组织数据的呢?为此,我请教百分点大数据的专家获知,可以借助不同的工具,对于数据进行导入。

不同数据类型,需要采用的不用工具。以数据库数据为例,要采用的工具是Sqoop,可以将一个关系型数据库(例如 : MySQL、Oracle、PostgreSQL等)中的数据导进到Hadoop(Hive)的HDFS中,也可以反过来将HDFS数据导进到关系型数据库中。针对非结构化数据,例如文本数据、IoT(物联网)机器数据等,需要使用Flume,它是Cloudera提供的一个海量日志采集、聚合和传输的系统,同时Flume也提供对数据进行简单处理,并写到各种数据接受方(可定制)。需要稍加说明的是,图片大小不同,接入介质(这里指MongoDB、Hbase或HDFS)不同,其中,有些介质适合小文件数据处理,有些适合处理大文件,因此,要根据非结构化数据的特点,分别加以存储。

“标签”体系是基础

当数据就绪之后,接下来就要由具有行业经验、业务经验的专家,结合业务系统和业务形态构建数据的标签体系。根据介绍,系统为一个用户打的各种标签高达近万种,其颗粒度之细致超乎想象。可以毫不夸张的说,机器甚至比你更加了解你自己。对于人来说,做过事情经过一段时间会被遗忘,但机器不会,主要数据不删除,机器永远不会忘记。

标签体系是用户业务画像的基础,通过各种灵活业务查询,就可以演变出千变万化的业务创新应用,可以是解决现有业务系统的问题,如性能问题、系统预警问题;也可以针对业务提供创新的业务服务,例如零售行业的个性化推荐、金融防欺诈和反洗钱等,这些业务应用有些属于离线业务分析,有些则涉及在线的数据处理能力。不同系统,需要采用不同的技术手段,可以列式数据库,也可以是Spark等。

以某省交管部门为例,随着数据量的不断增加,他们所采用的关系数据库就出现了性能不足的问题。对此,他们引入了大数据的技术,通过分布式数据处理,成功解决系统存在的问题。

从本质上说,大数据技术和关系型数据库所提供服务,从方向上是一致的。关系型数据库也提供了数据存储、数据查询,数据仓库ETL等一系列技术,提供在线数据分析等服务。与之相比,大数据应用所提供数据颗粒度更细,分布式系统能够处理的数据量更大,数据分析技术和手段更加多样性。

如今,随着人工智能,机器学习等技术的成熟,经过大量数据的训练和矫正,数据建模分析的效果愈发显现了出来。以零售行业个性化推荐应用为例,已经成为了行业应用的标配,效果显著。

小结

大数据应用为人类工作生活展示了美丽画卷,所谓理想丰满,现实骨干,如今大数据应用现状并不令人满意,问题并不在Hadoop等技术方向上,方向没有错,但与此同时,Hadoop技术复杂性成为了应用的限制门槛。

必须简化技术的复杂度,为此百分点等厂商推出了像BD-OS这样的大数据平台,帮助用户简化和使用各种分析手段和工具。目前,行业的龙头企业正在积极引入这些技术,因此,大数据技术和行业应用还在结合之中,行业应用的爆发还需要一段时间的积累,所谓不鸣则已,一鸣惊人!

大数据普遍爆发也许真的用不了太长的时间!

本文转自d1net(转载)

时间: 2024-09-21 05:47:39

大数据,Hadoop,存储应用的第三极的相关文章

应对大数据的存储准备

在今天,我们频繁地地接触到"大数据"这个术语.不过业内还是对大数据究竟是什么缺少一种标准化的定义.那么,大数据对数据存储基础架构中有意味着什么呢? 企业战略集团(ESG)对大数据作出的定义是"大小规模超过常规处理能力边界的数据集,它使得你不得不采取非常规手段."简单来讲,我们可以将大数据这个词使用在任何突破了传统IT处理支撑日常业务运作能力边界的数据集合上. 这些边界可能会出现在以下几种情况下: ?过高的交易数据量导致传统的数据存储系统达到了瓶颈,无法及时地完成各项

大数据Hadoop解决方案

根据最新的Forrest报告,有很多公司都在努力挖掘他们拥有的大量数据,包括结构化.非结构化.半结构化以及二进制数据等,探索对大数据的深入利用.下面是报告结论的其中一点: 大多数公司估计他们只分析了已有数据的12%,剩余88%还没有被充分利用.大量的数据孤岛和分析能力的缺乏是造成这种局面的主要原因.另外一个难题是如何判断数据是否有价值.尤其是在大数据时代,你必须采集并存储这些数据.一些看起来与业务无关的数据,如手机GPS数据,将来也可能是座金矿. 所以,大量公司都寄希望于使用Hadoop解决如下

大数据Hadoop解决方案的形势

根据最新的Forrest报告,有很多公司都在努力挖掘他们拥有的大量数据,包括结构化.非结构化.半结构化以及二进制数据等,探索对数据的深入利用.下面是报告结论的其中一点: 大多数公司估计他们只分析了已有数据的12%,剩余88%还没有被充分利用.大量的数据孤岛和分析能力的缺乏是造成这种局面的主要原因.另外一个难题是如何判断数据是否有价值.尤其是在大数据时代,你必须采集并存储这些数据.一些看起来与业务无关的数据,如手机GPS数据,将来也可能是座金矿. 所以,大量公司都寄希望于使用Hadoop解决如下难

Mysql大数据量存储及访问的设计讨论

一.引言 随着互联网应用的广泛普及,海量数据的存储和访问成为了系统设计的瓶颈问题.对于一个大型的互联网应用,每天几十亿的PV无疑对数据库造成了相当高的负载.对于系统的稳定性和扩展性造成了极大的问题.通过数据切分来提高网站性能,横向扩展数据层已经成为架构研发人员首选的方式.水平切分数据库,可以降低单台机器的负载,同时最大限度的降低了了宕机造成的损失.通过负载均衡策略,有效的降低了单台机器的访问负载,降低了宕机的可能性:通过集群方案,解决了数据库宕机带来的单点数据库不能访问的问题:通过读写分离策略更

mysql-利用MySQL数据库如何解决大数据量存储问题?

问题描述 利用MySQL数据库如何解决大数据量存储问题? 各位高手您们好,我最近接手公司里一个比较棘手的问题,关于如何利用MySQL存储大数据量的问题,主要是数据库中的两张历史数据表,一张模拟量历史数据和一张开关量历史数据表,这两张表字段设计的很简单(OrderNo,Value,DataTime).基本上每张表每天可以增加几千万条数据,我想问如何存储数据才能不影响检索速度呢?需不需要换oracle数据库呢?因为我是数据库方面的新手,希望可以说的详细一点,万分感谢!!! 解决方案 查询业务是怎么样

Teradata天睿公司获评大数据Hadoop优化系统领域的领导者

ZD至顶网CIO与应用频道 06月06日 北京消息:全球知名市场分析公司Forrester 的最新报告显示,全球领先的大数据分析服务供应商Teradata天睿公司(Teradata Corporation,纽交所:TDC) 被评为大数据 Hadoop 优化系统(Big Data Hadoop-Optimized Systems)的三大领导者之一.该报告为<Forrester浪潮:2016 年第二季度大数据 Hadoop 优化系统报告>,由 Noel Yuhanna 和 Mike Gualtie

我国成功研制EB级云存储系统:可满足大数据量存储落地需求

国家863计划云计算关键技术与系统(二期)项目课题验收会11月29日在天津召开,由我国高性能计算领军企业中科曙光承担的"EB级云存储系统研制"课题通过技术验收. 为促进我国云计算核心软硬件产品的研发,"十二五"国家863计划信息技术领域"云计算关键技术与系统(二期)"重大项目于2013年2月正式批准实施,其中包括"EB级云存储系统研制"等多个课题. 随着云计算.互联网.移动终端和物联网的迅猛发展,信息数据爆炸性增长,传统的云平

大数据引发存储限制 Hadoop如何走得更远?

存储技术已经发展和成熟起来,并开始在许多数据中心处于近乎商品的地位.然而,今天的企业面临着存储技术的不断变化带来的诸多问题一个例子是推动大数据分析,一项给大型数据集带来商业智能BI功能的举措. 大数据分析过程需要如下超出典型存储范式的能力-典型存储范式,简而言之,即传统的存储技术,如SAN.NAS和其它无法在本地处理伴随着大数据的挑战而来的TB级和PB级的非结构化信息的存储技术.除此之外,成功http://www.aliyun.com/zixun/aggregation/14294.html"&

预告:大数据(hadoop\spark)解决方案构建详解,以阿里云E-MapReduce为例

在2016年09月22日 20:00 - 21:00笔者将在 CSDN学院,分享<大数据解决方案构建详解 :以阿里云E-MapReduce为例>欢迎大家报名,报名链接:http://edu.csdn.net/huiyiCourse/detail/186 ppt地址:https://yq.aliyun.com/attachment/download/?spm=0.0.0.0.PpnciK&filename=%E5%A4%A7%E6%95%B0%E6%8D%AE%E8%A7%A3%E5%8

干货|大数据Hadoop快速入门教程

1.Hadoop生态概况 Hadoop是一个由Apache基金会所开发的分布式系统集成架构,用户可以在不了解分布式底层细节情况下,开发分布式程序,充分利用集群的威力来进行高速运算与存储,具有可靠.高效.可伸缩的特点. Hadoop的核心是YARN,HDFS,Mapreduce,常用模块架构如下 2.HDFS 源自谷歌的GFS论文,发表于2013年10月,HDFS是GFS的克隆版,HDFS是Hadoop体系中数据存储管理的基础,它是一个高度容错的系统,能检测和应对硬件故障 HDFS简化了文件一致性