《MapReduce 2.0源码分析与编程实战》一1.3 简单、粗暴、有效——这就是Hadoop

1.3 简单、粗暴、有效——这就是Hadoop

2005年,IT界先锋Apache基金会率先提出了一种先进的不以关系型数据为基础的大数据处理模型——Hadoop。

Hadoop就是解决面向互联网及其他来源的大数据分析和并行处理的计算模型。它的诞生引起了学术界、金融界以及商业界的广泛关注。Hadoop创建之初的宗旨就是让使用者能够通过使用大量普通的服务器搭建相应的服务器集群来实现大数据的并行处理,其优先考虑的是数据扩展性和系统的可用性。

简单、粗暴、有效——这就是Hadoop。

Hadoop是一个简单的大数据分布式处理框架,可以使程序设计人员和数据分析人员在不了解分布式底层细节的情况下,开发分布式程序。

Hadoop是一款粗暴的数据处理工具程序。读者在学习Hadoop以前,可能习惯了用精巧的算法、优雅的程序对数据进行处理。但是到Hadoop这里,可以套用电影里的一句台词,“她来了,一切都变了”。Hadoop创新了数据获取和处理的理念,不再需要使用以往的建立索引来对数据分类,通过相应的表链接将需要的数据匹配成我们需要的格式。Hadoop没有索引,只有蛮力。

小提示:
Hadoop通过蛮力对数据进行处理。一台计算机处理速度慢,那么就找十台计算机同时进行处理。十台计算机处理慢,找一百台同时进行处理。一百台计算机还是处理慢,那么就找一千台同时进行处理。这也是Hadoop处理数据的精髓。

Hadoop是一款有效的数据处理工具程序,充分利用集群的能力对数据进行处理,其核心就是MapReduce数据处理。通过对数据的输入、分拆与组合,可以有效地提高数据管理的安全性,同时也能够很好地访问被管理的数据。

Hadoop由开源的Java程序编写而成,是由Apache基金会开发的完全免费使用的开源程序(Open Source)。Hadoop开创性地使用了一种从最底层结构上就与现有技术完全不同但是更加具有先进性的数据存储和处理技术。使用Hadoop无需掌握系统的底层细节,更不需要购买价格不菲的软硬件平台,可以无限制地在价格低廉的商用PC上搭建所需规模的评选数据分析平台。即使从只有一台商用PC的集群平台开始,也可以在后期任意扩充其内容。有了Hadoop后,再没有数据被认为是过于庞大而不好处理或存储的了,从而解决了之前无法解决的对海量数据进行分析的问题,发现了其中潜在的价值。

通过使用自带的数据格式和自定义的特定数据格式,Hadoop基本上可以按照程序设计人员的要求处理任何数据,不论这个数据类型是什么样的。数据可以是音乐、电影、文本文件、Log记录等,都可以作为输入存储在Hadoop中。通过编写相应的MapReduce处理程序,Hadoop会帮助用户获得任何想要的答案。

“魔镜魔镜告诉我,这个背后有什么?”Hadoop还可以挖掘任何看起来毫无关联性的数据背后隐藏的各种信息,将其共同连接构建和呈现出来,从而能够提供其中包含的各种商业信息和价值规律,让使用者根据更多的具有规律性的参考信息作出决策。

“只要给我一个支点,我就能撑起地球。”Hadoop或许就是那个撑起大数据处理的支点。

时间: 2024-08-02 03:06:32

《MapReduce 2.0源码分析与编程实战》一1.3 简单、粗暴、有效——这就是Hadoop的相关文章

《MapReduce 2.0源码分析与编程实战》一导读

前 言 MapReduce 2.0源码分析与编程实战 我们处于一个数据大爆炸的时代.每时每刻.各行各业都在产生和积累海量的数据内容.这些数据中蕴含着进行业务活动.获取商业信息.做出管理决策的重要信息.如何处理这些数据并获取有价值的信息,是众多组织和单位面临的共同问题.而这个问题的解决又依赖两项技术,一是能够对产生的业务数据进行统一管理和综合,并且能够无限扩展存储空间:二是能够有效处理获得的海量数据,在限定时间内获得处理结果的处理程序. 因此,寻求一个合理可靠的大数据处理决方案是目前数据处理的热点

《MapReduce 2.0源码分析与编程实战》一第1章 大象也会跳舞

第1章 大象也会跳舞 MapReduce 2.0源码分析与编程实战大象能跳舞吗?当我们被庞大而臃肿的数据压垮,常常会不停地问自己是否真的有必要收集那么多的数据吗?对于这个问题,我回答是 "一切都取决于你自己".对于庞大的数据来说,在不同人的眼中,既可以是一座无用的垃圾山,也可以是一座未经开凿的金山,这一切都取决于使用者的能力与眼界.

《MapReduce 2.0源码分析与编程实战》一1.4 MapReduce与Hadoop

1.4 MapReduce与Hadoop 如果将Hadoop比作一头大象的话,那么MapReduce就是那头大象的大脑.MapReduce是Hadoop核心编程模型.在Hadoop中,数据处理核心为MapReduce程序设计模型.MapReduce把数据处理和分析分成两个主要阶段,即Map阶段和Reduce阶段.Map阶段主要是对输入进行整合,通过定义的输入格式获取文件信息和类型,并且确定读取方式,最终将读取的内容以键值对的形式保存.而Reduce是用来对结果进行后续处理,通过对Map获取内容中

《MapReduce 2.0源码分析与编程实战》一1.2 HBase使用场景和成功案例

1.2 HBase使用场景和成功案例 HBase实战有时候了解软件产品的最好方法是看看它是怎么用的.它可以解决什么问题和这些解决方案如何适用于大型应用架构,这些能够告诉你很多.因为HBase有许多公开的产品部署案例,我们正好可以这么做.本节将详细介绍一些成功使用HBase的使用场景. 注意不要自我限制,认为HBase只能在这些使用场景下使用.它是一个很新的技术,根据使用场景进行的创新正推动着该系统的发展.如果你有新想法,认为HBase提供的功能会让你受益,那就试试吧.社区很乐于帮助你,也会从你的

《MapReduce 2.0源码分析与编程实战》一1.2 大数据分析时代

1.2 大数据分析时代 如果我们把大数据比作一块未经开发的沃土,那么只有经过耕耘收获的果实才能够算得上是真正获得了沃土的回报.换言之,如果把大数据比作一块沃土,那么只有强化对土地的"耕耘"能力,才能通过"加工"实现数据的"增值". 随着"大数据时代"的开启,对大数据本身的处理和分析越来越为生产者和商业者所看重.但是问题在于,相比于拥有较长历史的数据库分析和传统数据分析,大数据分析具有待数据量特别巨大.算法分析特别复杂等特点.

《MapReduce 2.0源码分析与编程实战》一2.1 从头开始

2.1 从头开始 HBase实战TwitBase存储3种简单的核心数据元素,即用户(user).推帖(twit)和关系(relationship).用户是TwitBase的中心.用户登录进入应用系统,维护用户信息,通过发帖与其他用户互动.推帖是TwitBase中用户公开发表的短文.推帖是用户间互动的主要模式.用户通过互相转发产生对话.所有互动的"粘合剂"就是关系.关系连接用户,使用户很容易读到其他用户的推帖.本章关注点是用户和推帖,下一章将讨论关系. 关于Java 本书绝大部分代码都是

《MapReduce 2.0源码分析与编程实战》一1.1 数据管理系统:速成

1.1 数据管理系统:速成 HBase实战关系型数据库系统已经存在几十年了,多年来在解决数据存储.服务和处理问题方面取得了巨大的成功.一些大型公司使用关系型数据库建立了自己的系统,比如联机事务处理系统和后端分析应用系统. 联机事务处理(OLTP)系统用来实时记录交易信息.对这类系统的期望是能够快速返回响应信息,一般是在毫秒级.例如,零售商店的收银机在客户购买和付款时需要实时记录相应信息.银行拥有大型OLTP系统,用来记录客户之间转账之类的交易信息,但OLTP不仅仅用于资金交易,像LinkedIn

《MapReduce 2.0源码分析与编程实战》一1.5 看,大象也会跳舞

1.5 看,大象也会跳舞 大象也会跳舞.当人们还在争论大数据处理能否为自己所在的行业带来革命的时候,部分行业领袖已经在享用大数据处理给自己带来的非凡好处. Hadoop一个最为普遍的应用是为获得的海量数据提供处理程序,从而能够获得其中包含的各种信息.例如经常使用的聚类推荐,向感兴趣的顾客推荐相关商品和服务:或者为广告供应商提供具有针对性的广告服务,并且通过点击率的反馈获得统计信息,进而有效地帮助他们调整相应的广告投放能力. 长期以来,互联网巨头,包括Yahoo!.Google等广告商为其投放的标

《MapReduce 2.0源码分析与编程实战》一1.3 你好HBase

1.3 你好HBase HBase实战HBase搭建在Apache Hadoop和Apache ZooKeeper上面.就像Hadoop家族其他产品一样,它是用Java编写的.HBase可以以3种模式运行:单机.伪分布式和全分布式.下面我们将使用的是单机模式.这意味着在一个Java进程里运行HBase的全部内容.这种访问模式用于研究HBase和做本地开发. 伪分布式模式需要在一台机器上运行多个Java进程.最后的全分布模式需要一个服务器集群.这两种模式需要安装相关联的软件包以及合理地配置HBas