141.3. 单机安装 CentOS 5 + hadoop-0.20.0

这种安装方式仅仅适用于做实验,快速搭建Hadoop环境,不适合生产环境。

Ubuntu 环境

$ sudo apt-get install openjdk-7-jre
		

过程 141.1. Master configure

  1. Download and Installing Software

    $ cd /usr/local/src/
    $ wget http://apache.etoak.com/hadoop/core/hadoop-0.20.0/hadoop-0.20.0.tar.gz
    $ tar zxvf hadoop-0.20.0.tar.gz
    $ sudo cp -r hadoop-0.20.0 ..
    $ sudo ln -s hadoop-0.20.0 hadoop
    $ cd hadoop
    
  2. Configuration

    hadoop-env.sh

    $ vim conf/hadoop-env.sh
    export JAVA_HOME=/usr
    

    conf/core-site.xml

    $ vim conf/core-site.xml
    
    <configuration>
      <property>
        <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
      </property>
    </configuration>
    

    conf/hdfs-site.xml

    $ vim conf/hdfs-site.xml
    
    <configuration>
      <property>
        <name>dfs.replication</name>
        <value>1</value>
      </property>
    </configuration>
    

    conf/mapred-site.xml

    $ vim conf/mapred-site.xml
    
    <configuration>
      <property>
        <name>mapred.job.tracker</name>
        <value>localhost:9001</value>
      </property>
    </configuration>
    
  3. Setup passphraseless ssh
    Now check that you can ssh to the localhost without a passphrase:
    $ ssh localhost
    
    If you cannot ssh to localhost without a passphrase, execute the following commands:
    $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
    $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
    
  4. Execution
     Format a new distributed-filesystem:
    $ bin/hadoop namenode -format
    
    Start the hadoop daemons:
    $ bin/start-all.sh
    
    When you're done, stop the daemons with:
    $ bin/stop-all.sh
    				
  5. Monitor

    Browse the web interface for the NameNode and the JobTracker; by default they are available at:

    • NameNode - http://localhost:50070/
    • JobTracker - http://localhost:50030/
  6. Test
    $ bin/hadoop dfs -mkdir test
    $ echo helloworld > testfile
    $ bin/hadoop dfs -copyFromLocal testfile test/
    $ bin/hadoop dfs -ls
    Found 1 items
    drwxr-xr-x   - neo supergroup          0 2009-07-10 14:18 /user/neo/test
    
    $ bin/hadoop dfs -ls test
    
    $ bin/hadoop dfs –cat test/file
    

过程 141.2. slave config

  1. SSH

    $ scp neo@master:~/.ssh/id_dsa.pub .ssh/master.pub
    $ cat .ssh/master.pub >> .ssh/authorized_keys
    
  2. Hadoop
    $ scp neo@master:/usr/local/hadoop /usr/local/hadoop
    

原文出处:Netkiller 系列 手札
本文作者:陈景峯
转载请与作者联系,同时请务必标明文章原始出处和作者信息及本声明。

时间: 2024-09-22 12:17:33

141.3. 单机安装 CentOS 5 + hadoop-0.20.0的相关文章

.net如9.01+0.20+0.23如何循环取出9.01和0.20和0.23让后循环将三个数添加到数据库

问题描述 .net如9.01+0.20+0.23如何循环取出9.01和0.20和0.23让后循环将三个数添加到数据库 解决方案 解决方案二:你是要取值,还是要计算字符串代表的数学操作结果?如果是数学操作,那么可以否则的话可以通过下面的正则匹配到所有的数字@"d+(.d+)?" 解决方案三:strings="9.01+0.20+0.23";foreach(varitemins.Split('+')){每个item就是一个数字}解决方案四:通过split分割成数组,然后

(R)?ex 0.20.0发布 服务器管理工具

(R)?ex 0.20.0这个版本增加了Xen和KVM通过libvirt管理的支持.增强了模板模块并修复了一些错误. (R)?ex是一种能够让你管理从一个中心点到所有服务器的工具,它的工作原理是通过完整的配置管理和软件部署的运作过程. 下载地址:http://www.phpclasses.org/package/4755-PHP-Check-proxy-addresses-and-filter-Javascript.html#download

141.4. 分布式安装(CentOS 6 + hadoop-1.1.2)

HDFS:       NameNode  :管理节点       DataNode  :数据节点       SecondaryNamenode : 数据源信息备份整理节点 MapReduce        JobTracker  :任务管理节点        Tasktracker :任务运行节点 141.4.1. 准备工作 准备4台服务器,操作系统为 Centos 6.4 最小化安装 NameNode   192.168.2.10 hostname namenode DataNode   

源云计算技术系列(七)Cloudera (hadoop 0.20)

虚拟一套centos 5.3 os. 下载 jdk-6u16-linux-i586-rpm.bin [root@hadoop ~]# chmod +x jdk-6u16-linux-i586-rpm.bin [root@hadoop ~]# ./jdk-6u16-linux-i586-rpm.bin [root@hadoop ~]#  java -version java version "1.6.0" OpenJDK  Runtime Environment (build 1.6.0

[Hadoop系列]Changes of Hadoop 0.20笔记

最近学习hadoop 0.20.1,网上找到一篇文章<What's New in Hadoop Core 0.20 >,非完整的给翻译了一下,为以后检索方便,发上来保存一份.如果能读懂英文的,千万不要看下面的中文.   Hadoop Core 0.20.0在2009年4月22日发布.这一发布相对0.19发布,有很多用户使用层面上的改变. Core Hadoop中两个主要的组件是分布式文件系统(HDFS)和MapReduce,那两个组件分别挪入各自的子项目中,因此他们能拥有自己的发布周期,并且更

一脸懵逼学习基于CentOs的Hadoop集群安装与配置(三台机器跑集群)

1:Hadoop分布式计算平台是由Apache软件基金会开发的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS)和MapReduce(Google MapReduce的开源实现)为核心的Hadoop为用户提供了系统底层细节透明的分布式基础架构.  注意:HADOOP的核心组件有: 1)HDFS(分布式文件系统) 2)YARN(运算资源调度系统) 3)MAPREDUCE(分布式运算编程框架)       Hadoop 中的分布式文件系统 HDFS 由一个管理结点 ( NameNode

hadoop 单机安装配置教程_java

单机安装主要用于程序逻辑调试.安装步骤基本通分布式安装,包括环境变量,主要Hadoop配置文件,SSH配置等.主要的区别在于配置文件:slaves配置需要修改,另外如果分布式安装中dfs.replication大于1,需要修改为1,因为只有1个datanode. 分布式安装请参考: http://acooly.iteye.com/blog/1179828 单机安装中,使用一台机器,即做namenode和JobTracker也是datanode和TaskTracker,当然也是SecondaryN

Linux 静默安装CentOS 6.6系统上安装Oracle 11gR2(11.2.0.4)

本文档是Oracle Database 11.2.0.4 for CentOS 6.6 Server(x86_64平台)的静默安装指南. 所有操作无需使用图形界面. 静默安装能减少安装出错的可能性, 也能大大加快安装速度. # 后跟命令表示以操作系统下root用户操作; $ 后跟命令表示以操作系统下oracle用户操作;  1.0 安装前检查 内存大小要求  Oracle 11.2 建议内存是在2GB或者更多. 运行以下命令: #  grep MemTotal /proc/meminfo Mem

Hadoop 2.4.0和YARN的安装过程

Hadoop 2.x新特性     将Mapreduce框架升级到Apache YARN,YARN将Map reduce工作区分为两个:JobTracker组件:实现资源管理和任务JOB:计划/监视组件:划分到单独应用中. 使用MapReduce的2.0,开发人员现在可以直接Hadoop内部基于构建应用程序.Hadoop2.2也已经在微软widnows上支持. YARN带来了什么     1.HDFS的高可靠性     2.HDFS snapshots快照     3.支持HDFS中的 NFSv