namenode-Hadoop NameNode找不到

问题描述

Hadoop NameNode找不到

初次使用Hadoop,运行后怎么没有NameNode节点?
no jobtracker to stop
192.168.199.3: no tasktracker to stop
192.168.199.4: no tasktracker to stop
no namenode to stop
192.168.199.4: no datanode to stop
192.168.199.3: no datanode to stop
192.168.199.3: no secondarynamenode to stop

cocore-site.xml也配置了

fs.default.name
hdfs://192.168.199.2:9000

hadoop.tem.dir
/opt/hadoop-1.2.1

解决方案

还没启动吧,怎么会停呢...配置好了,格式化,然后再启动。

时间: 2024-10-29 01:43:06

namenode-Hadoop NameNode找不到的相关文章

Hadoop Namenode不能启动 dfs/name is in an inconsistent

Hadoop Namenode不能启动 dfs/name is in an inconsistent 前段时间自己的本机上搭的Hadoop环境(按文档的伪分布式),第一天还一切正常,后来发现每次重新开机以后都不能正常启动, 在start-dfs.sh之后jps一下发现namenode不能正常启动,按提示找到logs目录下namenode的启动log发现如下异常 org.apache.hadoop.hdfs.server.common.InconsistentFSStateException: D

eclipse-Linux下Eclipse导出Hadoop项目找不到库文件

问题描述 Linux下Eclipse导出Hadoop项目找不到库文件 求教各位hadoop技术大牛~~~~~ Linux环境下,Eclipse已经集成了Hadoop插件,运行Hadoop程序没有问题 代码:CLibrary Instance = (CLibrary) Native.loadLibrary("libNLPIR.so", CLibrary.class);能够成功加载libNLPIR.so文件,其中libNLPIR.so文件是用来分词的第三方库 但是导出成Runnable j

关于hadoop namenode的双机热备份方案

参考Hadoop_HDFS系统双机热备方案.pdf,试验后有所增减 关于hadoopnamenode的双机热备份方案 1.        前言 目前hadoop-0.20.2没有提供name node的备份,只是提供了一个secondary node,尽管它在一定程度上能够保证对name node的备份,但当name node所在的机器出现故障时,secondary node不能提供实时的进行切换,并且可能出现数据丢失的可能性. 我们采用drbd +  heartbeat方案实现name nod

Hadoop namenode无法启动问题解决

原文:http://www.cnblogs.com/unflynaomi/p/4476870.html 原因:在root账户(非hadoop账户)下操作hadoop会导致很大的问题. 首先运行bin/start-all.sh发现namenode没有启动 只有它们 9428 DataNode 9712 JobTracker 9626 SecondaryNameNode 9983 Jps 9915 TaskTracker 遇到问题要学会翻看日志 cd /usr/local/hadoop/logs 发

Hadoop的坑——无法启动namenode

最近遇到了一个问题,执行start-all.sh的时候发现JPS一下namenode没有启动 每次开机都得重新格式化一下namenode才可以 其实问题就出在tmp文件,默认的tmp文件每次重新开机会被清空,与此同时namenode的格式化信息就会丢失 于是我们得重新配置一个tmp文件目录 首先在home目录下建立一个hadoop_tmp目录 sudo mkdir ~/hadoop_tmp 然后修改Hadoop/conf目录里面的core-site.xml文件,加入以下节点: hadoop.tm

CentOS 7下配置hadoop 2.8 分布式集群

Hadoop是一个由Apache基金会所开发的分布式系统基础架构,实现分布式文件系统HDFS,用于存储大数据集,以及可以以流的形式访问(streaming access)文件系统中的数据.Hadoop的框架最核心的设计就是:HDFS和MapReduce.HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算.本文描述了在CentOS 7下,基于三个节点安装hadoop 2.8,供大家参考. 一.基础环境描述 OS版本 [root@namenode ~]# more /etc/

【笔记】Hadoop安装部署

安装虚拟机 使用VirtualBox安装rhel6.3,存储为30G,内存为1G,并使用复制克隆出两个新的虚拟机,这样就存在3台虚拟机,设置三台虚拟机的主机名称,如:rhel-june.rhel-june-1.rhel-june-2 配置网络 a. VirtualBox全局设定-网络中添加一个新的连接:vboxnet0 b. 设置每一个虚拟机的网络为Host-Only c.分别修改每个虚拟机的ip,DHCP或手动设置 vim /etc/sysconfig/network-scripts/ifcf

十分钟搭建自己的hadoop2/CDH4集群

版本及准备 我部署的是hadoop-2.0.0-cdh4.2.0.tar.gz,下载地址为http://archive.cloudera.com/cdh4/cdh/4/hadoop-2.0.0-cdh4.2.0.tar.gz.在http://archive.cloudera.com/cdh4/cdh/4/下还可以下载到CDH hadoop生态圈内相关的包.再准备一个jdk1.6+的java环境,设置好JAVA_HOME. 需要注意的是,window下直接点击链接下载到的包可能无法解压成功,原因是

localhost: Warning: $HADOOP_HOME is deprecated.问题解决

启动HADOOP或是停止时,都会输出这个WARNING. 解决办法如下: http://thysmichels.com/2012/02/11/tips-running-hadoop-on-ubuntu/ When you get this Warning: $HADOOP_HOME is deprecated Solution: add "export HADOOP_HOME_WARN_SUPPRESS="TRUE""  in the hadoop-env.sh.

解决方法could only be replicated to 0 nodes, instead of 1

解决方法could only be replicated to 0 nodes, instead of 1 博客分类: 小记录~ 小心得~ hadoopreplicated to 0 nodes&http://www.aliyun.com/zixun/aggregation/37954.html">nbsp; 开启hadoop的start-all.sh脚本后,执行例子,出现properties could only be replicated to 0 nodes, instead