org.apache.hadoop.ipc.Client: Retrying connect to server异常的解决

检查发现是DataNode一直连接不到NameNode。

检查各个节点在etc/hosts中的配置是否有127.0.1.1
xxxxxx。如果有把其屏蔽或者删除,重启各节点即可。

原因:127.0.1.1是debian中的本地回环。这个造成了hadoop解析出现问题。这个设置应该是在做伪分布式的hadoop集群的时候,留下来的。



如果照上面的方法还是出现同样的问题,或者etc/hosts目录并没有127.0.1.1的设置的话。

那么可以在conf/core-site.xml (0.19.2版本的为conf/hadoop-site.xml)中增加以下内容
  

<property>
       <name>hadoop.tmp.dir</name>
       <value>/var/log/hadoop/tmp</value>
       <description>A base for other temporary directories</description>
  </property>

重启hadoop后,重新格式化namenode即可。

原因是:hadoop默认配置是把一些tmp文件放在/tmp目录下,重启系统后,tmp目录下的东西被清除,所以报错

参考:http://anyoneking.com/archives/603

时间: 2024-11-18 14:48:54

org.apache.hadoop.ipc.Client: Retrying connect to server异常的解决的相关文章

一脸懵逼加从入门到绝望学习hadoop之 org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=Administrator,

1:初学hadoop遇到各种错误,这里贴一下,方便以后脑补吧,报错如下: 主要是在window环境下面搞hadoop,而hadoop部署在linux操作系统上面:出现这个错误是权限的问题,操作hadoop是虚拟机的主机用户不是window的主机用户Administrator,所以出现下面的错误,解决办法如下所示(或者修改文件的权限,即所有者都可以进行可读,可写,可执行): log4j:WARN No appenders could be found for logger (org.apache.

hadoop拷贝文件时 org.apache.hadoop.ipc.RemoteException异常的解决

1.系统或hdfs是否有空间 2.datanode数是否正常 3.是否在safemode 4.防火墙关闭 5.配置方面 6.把NameNode的tmp文件清空,然后重新格式化NameNode

Hadoop安装遇到各种异常以及解决方法

异常一: 2014-03-13 11:10:23,665 INFO org.apache.Hadoop.ipc.Client: Retrying connect to server: Linux-hadoop-38/10.10.208.38:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumhttp://www.aliyun.com/zixun/aggregation/16460.html">CountWithFi

Hadoop安装遇到的各种异常及解决办法

2014-03-13 11:10:23,665 INFO org.apache.Hadoop.ipc.Client: Retrying connect to server: Linux-hadoop-38/10.10.208.38:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 2014-03-13 11:1

eclipse连接hadoop失败:connot connect to the map/reduce location

问题描述 装了eclipse连接hadoop的插件,设置了mapreducelocation,eclipse无法连接到集群的文件系统,错误日志如下:!SESSION2015-04-1516:11:28.767-----------------------------------------------eclipse.buildId=4.4.2.M20150204-1700java.version=1.8.0_40java.vendor=OracleCorporationBootLoadercon

org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times 异常的解决

在使用HBase Shell的时候出现错误: ERROR: org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times 查看一下logs: FATAL org.apache.hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown. org.apache.hadoop.ipc.RPC$VersionMismatch: Protocol org.a

hadoop 异常记录 ERROR: org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times

当我把hadoop.hbase安装配置(具体参考这里)好了之后,启动hbase的shell交互模式,输入命令却出现了下面这样的错误: ERROR: org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times 这是为什么呢,Master为什么没有启动起来呢? 查看logs目录下的Master日志,发现有以下信息: 2012-02-01 14:41:52,867 FATAL org.apache.hadoop.hbase.ma

【干货】Apache Hadoop 2.8 完全分布式集群搭建超详细过程,实现NameNode HA、ResourceManager HA高可靠性

最近在自己的笔记本电脑上搭建了Apache Hadoop分布式集群,采用了最新的稳定版本2.8,并配置了NameNode.ResourceManager的HA高可用,方便日常对Hadoop的研究与测试工作.详细的搭建过程如下: 1.安装docker,创建docker容器,用于搭建hadoop节点 docker真是个好东西啊,当要在自己的笔记本上搭建分布式集群时,由于CPU.内存.磁盘有限,无法在VMware上虚拟出太多节点,这时使用docker创建几个容器,就能轻松搭建一个分布式集群了. (1)

绿盟科技网络安全威胁周报2017.23 关注Apache Hadoop远程提权漏洞CVE-2017-7669

绿盟科技发布了本周安全通告,周报编号NSFOCUS-17-23,绿盟科技漏洞库本周新增41条,其中高危5条.本次周报建议大家关注 Apache Hadoop远程权限提升漏洞 .目前厂商已经发布了升级补丁以修复此安全问题,请用户及时升级补丁修复此漏洞. 焦点漏洞 Apache Hadoop远程权限提升漏洞 NSFOCUS ID  36777 CVE ID  CVE-2017-7669 受影响版本 Apache Group Hadoop 3.0.0-alpha2 Apache Group Hadoo