日志-求救啊!Hadoop 2.2.0 搭建集群 启动hdfs时候 namenode 启动后报空指针

问题描述

求救啊!Hadoop 2.2.0 搭建集群 启动hdfs时候 namenode 启动后报空指针

日志如下:
2015-02-07 01:01:46,610 FATAL org.apache.hadoop.hdfs.server.namenode.NameNode: Error encountered requiring NN shutdown. Shutting down immediately.
java.lang.NullPointerException
at org.apache.hadoop.hdfs.DFSUtil.substituteForWildcardAddress(DFSUtil.java:942)
at org.apache.hadoop.hdfs.server.namenode.ha.StandbyCheckpointer.getHttpAddress(StandbyCheckpointer.java:108)
at org.apache.hadoop.hdfs.server.namenode.ha.StandbyCheckpointer.setNameNodeAddresses(StandbyCheckpointer.java:90)
at org.apache.hadoop.hdfs.server.namenode.ha.StandbyCheckpointer.(StandbyCheckpointer.java:76)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.startStandbyServices(FSNamesystem.java:994)
at org.apache.hadoop.hdfs.server.namenode.NameNode$NameNodeHAContext.startStandbyServices(NameNode.java:1456)
at org.apache.hadoop.hdfs.server.namenode.ha.StandbyState.enterState(StandbyState.java:58)
at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:686)
at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:669)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1254)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1320)
2015-02-07 01:01:46,614 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 1
2015-02-07 01:01:46,620 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: SHUTDOWN_MSG:

我就不明白了,为什么就一直报空指针,而且,远程调试的时候就不会报错,已经凌乱了。

解决方案

at org.apache.hadoop.hdfs.server.namenode.ha.StandbyCheckpointer.getHttpAddress(StandbyCheckpointer.java:108)
at org.apache.hadoop.hdfs.server.namenode.ha.StandbyCheckpointer.setNameNodeAddresses(StandbyCheckpointer.java:90)
检查一下NameNode服务器地址的配置,和NameNode服务器通信是否正常。

时间: 2024-11-03 12:36:21

日志-求救啊!Hadoop 2.2.0 搭建集群 启动hdfs时候 namenode 启动后报空指针的相关文章

脚本-Hadoop搭建集群环境用start-all.sh启动时报如下错误

问题描述 Hadoop搭建集群环境用start-all.sh启动时报如下错误 看了下,应该是start-dfs.sh脚本的问题,但是里面没有配置绝对路径.... 解决方案 hadoop中的start-all.sh小看 解决方案二: 有相应的目录或文件吗?或者.sh是否有执行权限 解决方案三: 没相应的目录和文件,在hadoop中的复制一份hadoop1.1.2到hadoop1和hadoop2中去

【干货】Apache Hadoop 2.8 完全分布式集群搭建超详细过程,实现NameNode HA、ResourceManager HA高可靠性

最近在自己的笔记本电脑上搭建了Apache Hadoop分布式集群,采用了最新的稳定版本2.8,并配置了NameNode.ResourceManager的HA高可用,方便日常对Hadoop的研究与测试工作.详细的搭建过程如下: 1.安装docker,创建docker容器,用于搭建hadoop节点 docker真是个好东西啊,当要在自己的笔记本上搭建分布式集群时,由于CPU.内存.磁盘有限,无法在VMware上虚拟出太多节点,这时使用docker创建几个容器,就能轻松搭建一个分布式集群了. (1)

使用hadoop restful api实现对集群信息的统计

(适用于hadoop 2.7及以上版本) 涉及到RESTful API ResourceManager REST API's:https://hadoop.apache.org/docs/stable/hadoop-yarn/hadoop-yarn-site/ResourceManagerRest.html WebHDFS REST API:https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/WebHDFS.

Spark 0.8 集群(CentOS6.4)-简单统计测试

环境:CentOS 6.4, hadoop-2.0.0-cdh4.2.0, JDK 1.6, spark-0.8.0-incubating-bin-cdh4.tar.gz,Scala 2.9.3 1. 安装.部署集群环境 参考前章<安装Spark 0.8集群(CentOS6.4) - 大数据之内存计算> 2. 测试描述 使用在线测试数据生工具,动态生成如下json数据(名称DATA[1-9].json): {"id":10,"first_name":&q

windows-如何通过Windows HPC server搭建集群并行开发环境?

问题描述 如何通过Windows HPC server搭建集群并行开发环境? 如何通过Windows HPC server搭建集群并行开发环境?刚接触,众多问题不了解,希望能帮忙解答

管理节点 mysql集群-mysq集群维护问题,搭建集群需要注意的情况

问题描述 mysq集群维护问题,搭建集群需要注意的情况 管理节点作用,数据节点能不能直接插入数据:在其中一个节点当机的时候,如何使集群不受影响 解决方案 http://server.it168.com/a2009/1019/767/000000767215.shtml无非就是配置一个容错的群集 解决方案二: http://blog.csdn.net/wzy0623/article/details/6554274

Redis 3.0 Cluster集群配置

Redis 3.0 Cluster集群配置 安装环境依赖 安装gcc:yum install gcc 安装zlib:yum install zib 安装ruby:yum install ruby 安装rubygems:yum install rubygems 安装ruby的redis驱动:gem install redis 安装redis 参考:http://www.cnblogs.com/rwxwsblog/p/5285732.html 修改配置文件 vi 6379.conf port=637

Redis3.0.6集群搭建

创建一个RedisCluster之前,我们需要有一些以cluster模式运行的Redis实例,这是因为cluster模式下Redis实例将会开启cluster的特征和命令. 现在我有2台Vbox搭建的CentOS6虚拟机[CentOS1(192.168.56.101)和CentOS2(192.168.56.102)],准备在此上搭建Redis集群. 由于最小的Redis集群需要3个Master节点,本次测试使用另外3个节点作为备份的节点(Replicas),于是此次搭建需要6个Redis实例.由

Hadoop学习之HBase的集群环境搭建

HBase的集群环境搭建 该集成环境是在伪分布搭建的基础上搭建 1.   修改原来的伪分布hadoop1上的hbase的配置文件 #cd /usr/local/hbase/conf/ 待修改的文件:hbase-env.sh.hbase-site.xml.regionservers #vim hbase-env.sh 使用搭建的zookeeper集群环境,因此hbase自带的zookeeper设置为false,不启动. #vim hbase-site.xml 将zookeeper集群所在的主机名,