hadoop教程(一)1.2.1真集群安装

实验环境

192.168.56.2    Master.Hadoop

192.168.56.3    Slave1.Hadoop

192.168.56.4    Slave2.Hadoop

一 安装JDK

#  /etc/profile

export JAVA_HOME=/usr/local/java/default

export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

# source /etc/profile

二 无密码ssh登录(建议本机也弄)

# 本地执行:生成密钥对

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

# 远程服务器执行:用公钥给远程机器授权

# 注意:在namenode上,为Secondarynamenode也需要操作一次本机的无密钥登陆

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

# 远程机器授权全后,可以删除公钥

rm -rf ~/.ssh/id_dsa.pub

三 配置hadoop

1)配置conf/hadoop-env.sh

export JAVA_HOME=/usr/local/java/default

2)配置conf/core-site.xml

如没有配置hadoop.tmp.dir参数,此时系统默认的临时目录为:/tmp/hadoo-hadoop。而这个目录在每次重启后都会被干掉,必须重新执行format才行,否则会出错

<configuration>

   <property>

       <name>hadoop.tmp.dir</name>

       <value>/usr/hadoop/tmp</value>

       <!--备注:请先在 /usr/hadoop 目录下建立 tmp 文件夹-->

       <description>A base for other temporary directories.</description>

   </property>

   <!-- file system properties -->

   <property>

       <name>fs.default.name</name>

       <value>hdfs://192.168.56.2:9000</value>

   </property>

</configuration>

3)配置hdfs-site.xml

<configuration>

   <property>

       <name>dfs.replication</name>

       <value>1</value>

查看本栏目更多精彩内容:http://www.bianceng.cnhttp://www.bianceng.cn/webkf/tools/

       <!--备注:replication 是数据副本数量,例如:设置为3的话,salve少于3台就会报错,副本数量没必要设置太多-->

   </property>

<configuration>

4)配置mapred-site.xml

<configuration>

   <property>

       <name>mapred.job.tracker</name>

       <value>192.168.56.2:9001</value>

   </property>

</configuration>

5)配置masters(secondaryNamenode),使用hosts

Master.Hadoop

6)配置slaves  ,namenode特有datanode可以不配置,使用hosts

Slave1.Hadoop

Slave2.Hadoop

7)其他datanode复制namenode的hadoop即可

四 启动

bin/hadoop namenode -format

sh bin/start-all.sh

验证端口,在namenode上

http://192.168.56.2:50030/

http://192.168.56.2:50070/

五 扩展性

直接拷贝datanode到其他机器,同时增加配置namenode的masters即可

注意新扩展机器的hosts配置,如果用IP配置则可以不关心这个

注意:

namenode必须要配置masters和slaves

datanode只需要配置masters即可,不需要slaves的配置

其他配置完全相同

切记要配置无密码SSH登录,否则无法启动

切记启动之前,先要执行格式化命令bin/hadoop namenode -format,否则无法启动

切记启动之前,要配置conf/hadoop-env.sh的JAVA_HOME,否则无法启动

时间: 2024-08-31 14:12:34

hadoop教程(一)1.2.1真集群安装的相关文章

hadoop经典系列(三)2.x真集群安装

一 安装JDK #  /etc/profile export JAVA_HOME=/application/search/java/default export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar # source /etc/profile 二 无密码ssh登录(建议本机也弄) # 本地执行:生成密钥对 ssh-

Hadoop学习之ZooKeeper理论知识和集群安装配置

ZooKeeper集群安装配置和理论知识 1.   简介:zookeeper是Google的Chubby的一个开源实现,是hadoop的分布式协调服务 2.    Zookeeper(简称zk)包含一个简单的原语集,分布式应用程序可以给予它实现同步服务,配置维护和命名服务等 3.    Zk的设计目标 a)      简单化:通过共享体系的,命名空间进行协调,与文件系统相似,有一些数据寄存器组成,被称为Znode.Zk的数据是放在内存中的,zk可以达到高吞吐量.低延迟. Zk能用在大型.分布式的

Hadoop 学习第三天之集群安装(上)

Hadoop 学习之集群安装(上) 将配置的伪分布模式的虚拟机克隆两份并更名为centos_node2和centos_note3 分别打开三个虚拟机,第一个基本不需要配置了,现在主要配置centos_note2和centos_note3的配置. 1.   首先修改IP地址和主机名 因为centos是hadoop1和192.168.100.11,在这里设置centos_note2和centos_note3的主机名和IP地址分别为:hadoop2/192.168.100.12和hadoop3/192

【Oracle 集群】Oracle 11G RAC教程之集群安装(七)

Oracle 11G RAC集群安装(七) 集群安装 在进行oracle集群安装之前,首先看下整体集群架构图.另:oracle RAC集群整体配置基于三个步骤(前期配置,集群安装,数据库安装)                         Oracle登入rac1进行上传,解压安装p13390677_112040_Linux-x86-64_1of7.zip.p13390677_112040_Linux-x86-64_2of7.zip.p13390677_112040_Linux-x86-64_

集群安装配置Hadoop详细图解

集群安装配置Hadoop 集群节点:node4.node5.node6.node7.node8.具体架构: 操作系统为:CentOS release 5.5 (Final) 安装步骤 一.创建Hadoop用户组. 二.安装JDK.下载安装jdk.安装目录如下: 三.修改机器名,修改文件/etc/hosts.如下: 四.安装ssh服务.命令:yum install openssh-server. 五.建立ssh无密码登陆. (一)切换到hadoop用户.su – hadoop (二)创建ssh-k

Hadoop 学习第三天之集群安装(下)

Hadoop 学习之集群安装(下) Hadoop集群的其他配置步骤(可选) 1.   将secondaryNameNode和NameNode及JobTracker分开,放在不同的主机上 修改hadoop的配置目录conf下的masters root@conf#vim master 将secondaryNameNode放在hadoop2上 重新启动服务   2.   将NameNode和JobTracker放在不同的主机上 修改的代价比较大,最好在机器搭建时就规划好 修改nameNode的地址,如

Storm集群安装部署步骤

开始学习Storm,本文主要记录Storm集群安装部署步骤,不包括对Storm的介绍. 安装storm集群,需要依赖以下组件: Zookeeper Python Zeromq Storm JDK JZMQ 故安装过程根据上面的组件分为以下几步: 安装JDK 安装Zookeeper集群 安装Python及依赖 安装Storm 另外,操作系统环境为:Centos6.4,安装用户为:root. 1. 安装JDK 安装jdk有很多方法,可以参考文博客使用yum安装CDH Hadoop集群中的jdk安装步

HBase-0.90.4集群安装配置

HBase是Hadoop数据库,能够实现随机.实时读写你的Big Data,它是Google的Bigtable的开源实现,可以参考Bigtable的论文Bigtable: A Distributed Storage System for Structured.HBase的存储模型可以如下三个词来概括:distributed, versioned, column-oriented.HBase并非只能在HDFS文件系统上使用, 你可以应用在你的本地文件系统上部署HBase实例来存储数据. 准备工作

Hadoop2.6(NN/RM)高可用集群安装与部署

 Hadoop2对HDFS的改进很大,支持HDFS(NameNode) 和ResourceManager高可用性,避免集群中单点故障造成整个集群不可用.那么,从本文开始将部署一套高可用Hadoop集群及家族中相关开源系统,具体根据下面规划来,本文只部署高可用Hadoop集群,后续很快更新其他软件部署及使用. 一.部署前准备 操作系统:CentOS7_x64 安装目录:/opt 1. 节点分配 HostName IP Hadoop HBase Zookeeper Hive HMaster0 192