Ubuntu12.04 Server下安装部署Cloudera Hadoop集群

部署环境

OS: Ubuntu12.04 Server

Hadoop:CDH3U6

机器列表:namenode 192.168.71.46;datanode 192.168.71.202,192.168.71.203,192.168.71.204

安装Hadoop

添加软件源

/etc/apt/sources.list.d/cloudera-3u6.list

插入

deb  http://192.168.52.100/hadoop maverick-cdh3 contrib

deb-src  http://192.168.52.100/hadoop maverick-cdh3 contrib

增加GPG Key,执行

curl -s http://archive.cloudera.com/debian/archive.key | sudo apt-key add -

更新

apt-get update

在namenode上安装hadoop-0.20-namenode和jobtracker

apt-get install -y --force-yes hadoop-0.20-namenode hadoop-0.20-jobtracker

在datanode上安装hadoop-0.20-datanode和tasktracker

apt-get install -y --force-yes hadoop-0.20-datanode hadoop-0.20-tasktracker

配置无SSH登录

在namendoe机器上执行

ssh-keygen -t rsa

一路回车,将在~/.ssh文件夹下生成的id_rsa.pub的内容复制到其他datanode机器的/root/.ssh/authorized_keys文件的尾部,如果其他机器中没有这个文件就自己手动创建一个。

建立Hadoop存储目录并修改owner

mkdir /opt/hadoop

chown hdfs:hadoop /opt/hadoop

mkdir /opt/hadoop/mapred

chown mapred:hadoop /opt/hadoop/mapred

修改配置文件并分发

修改/etc/hadoop/conf/core-site.xml为

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>  

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.71.46:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop</value>
</property>
</configuration>

修改/etc/hadoop/conf/hdfs-site.xml为

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>  

<!-- Put site-specific property overrides in this file. -->

<configuration>
  <property>
    <name>dfs.balance.bandwidthPerSec</name>
    <value>10485760</value>
  </property>
  <property>
    <name>dfs.block.size</name>
    <value>134217728</value>
  </property>
  <property>
    <name>dfs.data.dir</name>
    <value>/opt/hadoop/dfs/data</value>
  </property>
  <property>
    <name>dfs.datanode.max.xcievers</name>
    <value>4096</value>
  </property>
  <property>
    <name>dfs.namenode.handler.count</name>
    <value>100</value>
  </property>
</configuration>

以上是小编为您精心准备的的内容,在的博客、问答、公众号、人物、课程等栏目也有的相关内容,欢迎继续使用右上角搜索按钮进行搜索hadoop
, namenode
, hadoop 视频点播
, ambari hadoop
, hadoop集群
, spark hadoop
, dfs
, cloudera
, cloudera impala
, cdh5.4 安装问题
, CDH
, cdh5,cloudera 
, hadoop cdh 
datanode
hadoop集群部署、docker部署hadoop集群、hadoop集群部署方案、一键部署 hadoop集群、hadoop集群部署图,以便于您获取更多的相关知识。

时间: 2024-10-24 17:28:09

Ubuntu12.04 Server下安装部署Cloudera Hadoop集群的相关文章

hadoop集群-ambari 是否能够监控已经安装部署的Hadoop集群。

问题描述 ambari 是否能够监控已经安装部署的Hadoop集群. 我现在有几台机器再跑Hadoop .现在想要ambari来监控这个集群,但是不知道为什么只能重新安装所有集群.求各路有经验的人提供解决办法,如解决,提供相应数量的Q币为谢!

《Hadoop实战第2版》——2.4节安装和配置Hadoop集群

2.4 安装和配置Hadoop集群 2.4.1 网络拓扑 通常来说,一个Hadoop的集群体系结构由两层网络拓扑组成,如图2-3所示.结合实际应用来看,每个机架中会有30~40台机器,这些机器共享一个1GB带宽的网络交换机.在所有的机架之上还有一个核心交换机或路由器,通常来说其网络交换能力为1GB或更高.可以很明显地看出,同一个机架中机器节点之间的带宽资源肯定要比不同机架中机器节点间丰富.这也是Hadoop随后设计数据读写分发策略要考虑的一个重要因素. 2.4.2 定义集群拓扑 在实际应用中,为

在 Ubuntu 12.04 Server 上安装部署 Ruby on Rails 应用_ruby专题

本教程只适合 Ubuntu Server 用于部署项目到线上,建议使用同样的 Ubuntu 版本,以免遇到一些版本不同带来的问题. 本教程适合新手初次部署 Rails 应用: 本文测试通过环境 Ubuntu 12.04 Server, 服务器安装测试于 Linode VPS (Ubuntu 12.04 LTS (GNU/Linux 3.4.2-x86_64-linode25 x86_64). 配置 Ubuntu Server 系统 如果你是国内服务器,推荐修改网易的源 输入 sudo vi /e

CentOS 6.4下安装配置Spark-0.9集群

Spark是一个快速.通用的计算集群框架,它的内核使用Scala语言编写,它提供了Scala.Java和Python编程语言high-level API,使用这些API能够非常容易地开发并行处理的应用程序. 下面,我们通过搭建Spark集群计算环境,并进行简单地验证,来体验一下使用Spark计算的特点.无论从安装运行环境还是从编写处理程序(用Scala,Spark默认提供的Shell环境可以直接输入Scala代码进行数据处理),我们都会觉得比Hadoop MapReduce计算框架要简单得多,而

Linux下安装memcached之Tomcat7集群

这两天,在捣鼓负载均衡的问题,使用的是memcached做session存储.但是你造吗?居然没有成功,都硕失败是成功之母,我想我快成功了. 安装环境 centos 6.5,apache-tomcat-7.0.63,Nginx memcached介绍 Memcached 是一个高性能的分布式内存对象缓存系统,用于动态Web应用以减轻数据库负载.它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提高动态.数据库驱动网站的速度.Memcached基于一个存储键/值对的hashmap.其守护进程

Ubuntu12.04 64bit 下安装VNC server

 1. 安装gonme核心包(如果是字符界面的话) apt-get install x-window-system-coreapt-get install gnome-core (下载完成后需要安装dgm,不能选择lightdgm,不然重启以后不能登陆桌面了)apt-get install metacityapt-get install gnome-desktop-environment    (optional) 2.安装vnc4serverapt-get install vnc4server

mapreduce-solaris部署hadoop集群跑wordcount报错

问题描述 solaris部署hadoop集群跑wordcount报错 solaris部署hadoop集群跑wordcount报错, 信息如下: [admin@4bf635fa-5f3e-4b47-b42d-7558a6f0bbff ~]$ hadoop jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount /input /output 15/08/20 00:48:09 WARN

R语言为Hadoop集群数据统计分析带来革命性变化

R作为开源的数据统计分析语言正潜移默化的在企业中扩大自己的影响力.特有的扩展插件可提供免费扩展,并且允许R语言引擎运行在Hadoop集群之上. R语言是主要用于统计分析.绘图的语言和操作环境.R本来是由来自新西兰奥克兰大学的Ross Ihaka和Robert Gentleman开发.(也因此称为R)现在由"R开发核心团队"负责开发.R是基于S语言的一个GNU项目,所以也可以当作S语言的一种实现,通常用 S语言编写的代码都可以不作修改的在R环境下运行.R的语法是来自Scheme. R的源

Linux服务器下搭建hadoop集群环境 redhat5/Ubuntu 12.04

Ubuntu 12.04 下搭建 hadoop 集群环境步骤 一. 搭建环境前的准备: 我的本机Ubuntu 12.04 32bit作为maser,就是上篇hadoop单机版环境搭建时用的那台机子,http://www.linuxidc.com/Linux/2013-01/78112.htm 还在KVM中虚拟了4台机子,分别起名为: son-1        (ubuntu 12.04 32bit),son-2        (ubuntu 12.04 32bit),son-3        (