Hadoop实战之 Hello World

本文介绍的是在Ubuntu下安装用三台PC安装完成Hadoop集群并运行好第一个Hello World的过程,软硬件信息如下:

Ubuntu:12.04 LTS

Master: 1.5G RAM,奔腾处理器。

Slave1、Slave2:4G RAM,I3处理器。

开始

1 安装Ubuntu : http://cdimage.ubuntu.com/releases/12.04/release/,Ubuntu的安装过程网上有很多,这里不再赘述了,安装之前一定要对Linux的目录树和Mount有所了解。另外i,安装Ubutu过程中,三个用户名必须是一样的,当然你后面建用户也行,但是不方便。另外OpenSSH一定要先装好。

2 安装好后,开启root:

sudo passwd rootsudo passwd -u root

3 开始安装jdk 1.6 ,下载地址 http://www.oracle.com/technetwork/java/javase/downloads/java-se-6u24-download-338091.html:
使用终端进入存放jdk-6u24-linux-i586.bin,我的位置是:/usr/lib。我推荐的终端软件为:XShell和XFTP。存放后后:

第一步:更改权限;默认文件没有可执行权限

chmod g+x jdk-6u24-linux-i586.bin

第二步: 安装

sudo -s ./jdk-6u24-linux-i586.bin

安装完毕,下面配置环境变量

我安装好后java的路径是:/usr/lib/jdk1.6.0_24
配置classpath,修改所有用户的环境变量:

sudo vi /etc/profile

在文件最后添加

#set java environmentexport JAVA_HOME=/usr/lib/jdk1.6.0_24export JRE_HOME=/usr/lib/jdk1.6.0_24/jreexport CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATHexport PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

如果使用sudo提示不在用户组中 则敲命令 su -  ,切换到root,继续敲 visudo ,然后
    在root ALL=(ALL:ALL) ALL下
    添加
    hadoop ALL=(ALL:ALL) ALL (ps:hadoop是我建的用户名。)

重新启动计算机,用命令测试jdk的版本
    java -version
    显示如下信息:成功安装

java version "1.6.0_12"Java(TM) SE Runtime Environment (build 1.6.0_12-b04)Java HotSpot(TM) Server VM (build 11.2-b01, mixed mode)

5 hadoop安装和运行
    下载地址:http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-1.2.1/
    存放目录:/home/hadoop(hadoop是用户名)
    解压: tar -zxvf hadoop-1.2.1.tar.gz

6 Hadoop集群配置:

1 修改三台主机的hosts文件 :

vi /etc/hosts

加入如下四行,分别修改为你的master机器和slave机器的ip地址即可

127.0.0.1 localhost
    192.168.1.1 master
    192.168.1.2 slave1
    192.168.1.3 slave2
    2 修改主机名 vi /etc/hostname
    各自改为master,slave1,slave2.

3 配置master免SSH登录slave

在master上生成密钥:

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa     cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

然后用xftp将~/.ssh文件下的所有文件拷贝到两台slave机器即可。然后输入命令。

cd ~/.ssh scp authorized_keys slave1:~/.ssh/ scp authorized_keys slave2:~/.ssh/

4 修改三台主机的配置文件

vi /home/hadoop/hadoop-1.2.1/conf/hadoop-env.sh

加入:export JAVA_HOME=/usr/lib/jdk1.6.0_24 (更改为你们自己的目录)

vi /home/hadoop/hadoop-1.2.1/conf/core-site.xml

加入:

<configuration> <property> <name>fs.default.name</name> <value>hdfs://master:
9000</value> </property></configuration>

继续:

vi /home/hadoop/hadoop-1.2.1/conf/hdfs-site.xml<configuration><property><name>dfs.replication</name><value>2</value></property></configuration>

继续:

vi /home/hadoop/hadoop-1.2.1/conf/mapred-site.xml<configuration><property><name>mapred.job.tracker</name><value>master:9001</value></property></configuration>

在master机器上修改:

vi /home/hadoop/hadoop-1.2.1/conf/masters

加入master

vi /home/hadoop/hadoop-1.2.1/conf/slaves

加入

slave1

slave2

5 启动hadoop:

cd /home/hadoop/hadoop-1.2.1bin/hadoop namenode -format --这里是格式化 一次即可bin/start-all.sh

6 Hello World-经典的wordcount程序

cd ~mkdir filecd fileecho "Hello World" > file1.txtecho "Hello Hadoop" > file2.txtcd /home/hadoop/hadoop-1.2.1bin/hadoop fs -mkdir inputbin/hadoop fs -lsbin/hadoop fs -put ~/file/file*.txt inputbin/hadoop fs -ls inputbin/hadoop jar ./hadoop-examples-1.2.1.jar wordcount input output

查看输出结果:

bin/hadoop fs -ls output

查看最终结果:

可见,wordCount程序运行完成了。详细执行步骤如下:

  1)将文件拆分成splits,由于测试用的文件较小,所以每个文件为一个split,并将文件按行分割形 成<key,value>对,如图4-1所示。这一步由MapReduce框架自动完成,其中偏移量(即key值)包括了回车所占的字符数 (Windows和Linux环境会不同)。

图4-1 分割过程

  2)将分割好的<key,value>对交给用户定义的map方法进行处理,生成新的<key,value>对,如图4-2所示。

图4-2 执行map方法

  3)得到map方法输出的<key,value>对后,Mapper会将它们按照key值进行排序,并执行Combine过程,将key至相同value值累加,得到Mapper的最终输出结果。如图4-3所示。

图4-3 Map端排序及Combine过程

  4)Reducer先对从Mapper接收的数据进行排序,再交由用户自定义的reduce方法进行处理,得到新的<key,value>对,并作为WordCount的输出结果,如图4-4所示。

图4-4 Reduce端排序及输出结果

这一块:更详细的介绍可以参考:http://www.cnblogs.com/xia520pi/archive/2012/05/16/2504205.html

该文是对《Hadoop实战》最佳阐述。

后记

搭建Hadoop集群网上的文章有很多,遇到问题不断的查找,最终总是可以解决问题的。感觉最繁碎的问题是权限,我后面一概就用root了。改起 来烦。然,搭建完一个hadoop根本不算什么。搞懂hadoop适合的业务情形,搞懂Hadoop的设计思想,在写自己程序时,可以灵活运用,达到它山 之石可以攻玉的效果,那才是学习Hadoop的最终目的。

时间: 2024-09-13 16:11:52

Hadoop实战之 Hello World的相关文章

Hadoop实战开发教程

问题描述 各位亲爱的朋友们,我这里有一套30课时的深入浅出的Hadoop实战开发教程,有需要的朋友们可以加我QQ1275507263,为了响应大家的号召,特在此处让大家试看教程Hadoop是一个分布式系统基础架构,由Apache基金会开发.用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群的威力高速运算和存储.Hadoop实现了一个分布式文件系统(HadoopDistributedFileSystem),简称HDFS.HDFS有着高容错性的特点,并且设计用来部署在低廉的(low

【资源分享】Hadoop实战开发教程

问题描述 喜欢学习hadoop的各位亲们小编经过千辛万苦找到了一个自学hadoop的视频,在这里给大家分享一下,有不足之处还请给我多多指教,喜欢的话也希望大家告诉周围喜欢这个急需要这个视频的朋友们,好了闲话不多说直接上视频下载地址第一节第二节第三节视频总共30课时,深入浅出的讲解了Hadoop实战开发(HDFS实战图片.MapReduce.HBase实战微博.Hive应用).由于时间关系小编暂时写到这里,有急需要这个视频的朋友们可以加我的酷QQ1275507263酷. 解决方案 解决方案二:一套

《Hadoop实战手册》一导读

前 言 Hadoop实战手册 本书能帮助开发者更方便地使用Hadoop,从而熟练地解决问题.读者会更加熟悉Hadoop相关的各种工具从而进行最佳的实践. 本书指导读者使用各种工具解决各种问题.这些工具包括:Apache Hive.Pig.MapReduce.Mahout.Giraph.HDFS.Accumulo.Redis以及Ganglia. 本书提供了深入的解释以及代码实例.每章的内容包含一组问题集的描述,并对面临的技术挑战提出了解决方案,最后完整地解决了这些问题.每节将单一问题分解成不同的步

《Hadoop实战手册》一第1章 Hadoop分布式文件系统——导入和导出数据

第1章 Hadoop分布式文件系统--导入和导出数据 Hadoop实战手册 本章我们将介绍: 使用Hadoop shell命令导入和导出数据到HDFS 使用distcp实现集群间数据复制 使用Sqoop从MySQL数据库导入数据到HDFS 使用Sqoop从HDFS导出数据到MySQL 配置Sqoop以支持SQL Server 从HDFS导出数据到MongoDB 从MongoDB导入数据到HDFS 使用Pig从HDFS导出数据到MongoDB 在Greenplum外部表中使用HDFS 利用Flum

hadoop实战--搭建开发环境及编写Hello World

1.下载 整个Hadoop是基于Java开发的,所以要开发Hadoop相应的程序就得用java方便 进入网站:http://archive.eclipse.org/eclipse/downloads/ 选择3.71 eclipse SDK 进入下面的页面: http://archive.eclipse.org/eclipse/downloads/drops/R-3.7.1-201109091335/#EclipseSDK 选择相关的版本下载JDK,我选择的版本是:eclipse-SDK-3.7.

hadoop实战–搭建eclipse开发环境及编写Hello World

1.在eclise中安装hadoop的插件并配置 在上篇文章<编译hadoop eclipse的插件(hadoop1.0)>,已经介绍过怎样编译基于hadoop1.0的eclipse插件   将jar包放在eclipse安装目录下的plugins文件夹下.然后启动eclipse 进入后,在菜单window->Rreferences下打开设置: 点击"Ant" 出现: 点击browse选择hadoop的源码下的build目录,然后点OK 打开Window->Sho

《Hadoop实战手册》一1.9 使用Pig从HDFS导出数据到MongoDB

1.9 使用Pig从HDFS导出数据到MongoDB MongoDB是一种NoSQL数据库,用于存储和检索海量数据.MongoDB通常用于存储面向用户的数据,这些数据必须经过清洗.格式化之后才可以被使用.Apache Pig从某种程度上讲就是用来处理这种任务的.Mongostorage类使得使用Pig可以非常方便地批量处理HDFS上的数据,再直接将这些数据导入MongoDB中.本节将使用Mongostorage类将HDFS上的数据导出到MongoDB数据库中. 准备工作 使用Mongo Hado

《Hadoop实战手册》一1.8 从MongoDB导入数据到HDFS

1.8 从MongoDB导入数据到HDFS 本节将使用MongoInputFormat类加载MongoDB中的数据导入HDFS中. 准备工作 使用Mongo Hadoop适配器最简单的方法是从GitHub上克隆Mongo-Hadoop工程,并且将该工程编译到一个特定的Hadoop版本.克隆该工程需要安装一个Git客户端. 本节假定你使用的Hadoop版本是CDH3. Git客户端官方的下载地址是:http://git-scm.com/downloads. 在Windows操作系统上可以通过htt

《Hadoop实战第2版》——2.1节在Linux上安装与配置Hadoop

2.1 在Linux上安装与配置Hadoop 在Linux上安装Hadoop之前,需要先安装两个程序: 1)JDK 1.6(或更高版本).Hadoop是用Java编写的程序,Hadoop的编译及MapReduce的运行都需要使用JDK.因此在安装Hadoop前,必须安装JDK 1.6或更高版本. 2)SSH(安全外壳协议),推荐安装OpenSSH.Hadoop需要通过SSH来启动Slave列表中各台主机的守护进程,因此SSH也是必须安装的,即使是安装伪分布式版本(因为Hadoop并没有区分开集群