关于hadoop安装时候遇到的问题

问题描述

执行./hadoopfs-ls/命令时候,总是提示JAVA_HOMEisnotset错误我的Java安装在d盘下所以我的hadoop-env.sh中设定JDK的安装目录:exportJAVA_HOME=/cygdrive/d/java/jdk1.6.0_10请问问题在哪里?不甚感激!

解决方案

解决方案二:
楼主之前有没有在其他盘安装过jdk
解决方案三:
找到一篇博文,和你遇到的问题类似,希望有所帮助...
解决方案四:
引用1楼zsq_kaka1的回复:

楼主之前有没有在其他盘安装过jdk

我以前在C盘下面安装过后来安装到d盘下面的
解决方案五:
引用3楼guyuzhanglianya的回复:

引用1楼zsq_kaka1的回复:楼主之前有没有在其他盘安装过jdk我以前在C盘下面安装过后来安装到d盘下面的

应该是你以前的C盘安装目录下还留有jre1.6,楼主找找看,如果有的话删掉它(有几个文件很难删,用360软件能删);2.然后改一下注册表,修改HKEY_LOCAL_MACHINE/SOFTWARE/JAVASOFT/JAVARUNTIMEENVIRONMENT/CurrentVersion的内容,,注册表里面设置的jre路径还是以前的路径,将其全部改成现在的路径;试试看吧,希望有所帮助...
解决方案六:
引用4楼zsq_kaka1的回复:

引用3楼guyuzhanglianya的回复:引用1楼zsq_kaka1的回复:楼主之前有没有在其他盘安装过jdk我以前在C盘下面安装过后来安装到d盘下面的应该是你以前的C盘安装目录下还留有jre1.6,楼主找找看,如果有的话删掉它(有几个文件很难删,用360软件能删);2.然后改一下注册表,修改HKEY_LOCAL_MACHINE/SOFTWARE/JA……

非常感谢了试过了貌似还是不行我运行sshlocalhost启动正常./start-all.sh也正常但是jps没有反应./hadoopfs-ls/提示错误
解决方案七:
等高手出现吧!
解决方案八:
直接hadoop-env.sh中设定JDK的安装目录:exportJAVA_HOME=/cygdrive/d/java/jdk1.6.0_10给注释掉.使用系统默认的目录.难道我就是传说中的高手?

时间: 2024-09-12 16:11:15

关于hadoop安装时候遇到的问题的相关文章

centos-在CentOS版本的linux结合Hadoop安装mahout报错怎么解决?

问题描述 在CentOS版本的linux结合Hadoop安装mahout报错怎么解决? [root@master bin]# ./mahout Running on hadoop, using /opt/modules/hadoop-2.6.0/bin/hadoop and HADOOP_CONF_DIR= ERROR: Could not find mahout-examples-*.job in /home/mahout-distribution-0.9 or /home/mahout-di

hadoop安装完并正常运行,输入以下命令进行测试,发现如下异常,求大神解答!

问题描述 hadoop安装完并正常运行,输入以下命令进行测试,发现如下异常,求大神解答! ubuntu@master:~$ hadoop-2.5.2/bin/hadoop jar hadoop-2.5.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.2.jar wordcount /hadoop-2.5.2/input/* /hadoop/output 15/10/09 16:13:28 INFO client.RMProxy: Co

图片-hadoop安装完成出现的问题

问题描述 hadoop安装完成出现的问题 安装完毕的hadoop平台,在点击查看日志的时候,时常会出现一个错误的窗口. 环境是:hadoop安装的版本是5.4,使用的所有机器的操作系统均为CENTOS6.6.安装顺利完成的.只是在登录hadoop管理平台--ClouderaManager的诊断-日志,点击搜索的时候,就出现那些错误的提示. 望解答,谢谢! 请问这个是什么原因造成的,如何处理? 详细抓图: 解决方案 Hadoop2.6.0安装过程中出现的问题(一)Hadoop安装,问题汇总Hado

Hypertable on HDFS(hadoop) 安装

Hypertable on HDFS(hadoop) 安装 Hadoop - HDFS 安装指南 过程 4.2. Hypertable on HDFS 创建工作目录 $ hadoop fs -mkdir /hypertable $ hadoop fs -chmod 777 /hypertable 安装 Java 运行环境 yum install java-1.7.0-openjdk yum localinstall http://ftp.cuhk.edu.hk/pub/packages/apac

hadoop-Windows Cygwin下 Hadoop安装

问题描述 Windows Cygwin下 Hadoop安装 出现以下情况是什么原因? Administrator@ZKCRJB84CNJ0ZTJ /cygdrive/c/hadoop/sbin $ ./start-all.sh This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh 15/12/31 20:04:48 WARN util.NativeCodeLoader: Unable to load nativ

【笔记】Hadoop安装部署

安装虚拟机 使用VirtualBox安装rhel6.3,存储为30G,内存为1G,并使用复制克隆出两个新的虚拟机,这样就存在3台虚拟机,设置三台虚拟机的主机名称,如:rhel-june.rhel-june-1.rhel-june-2 配置网络 a. VirtualBox全局设定-网络中添加一个新的连接:vboxnet0 b. 设置每一个虚拟机的网络为Host-Only c.分别修改每个虚拟机的ip,DHCP或手动设置 vim /etc/sysconfig/network-scripts/ifcf

win7下hadoop安装配置注意事项

在win7下安装hadoop和其他windows平台有很多不同,通用的步骤就不重复了,把遇到的问题总结一下给大家参考,以免走弯路. 1.Do you want to use a different name? 选no 2.Create new privileged user account 'cyg_server'? 选no 3.无法启动sshd服务时,出现如下异常:Privilege separation user sshd does not exist 修改/etc/passwd文件,在其中

Hadoop安装实战

安装hadoop 准备机器:一台master,若干台slave,配置每台机器的/etc/hosts保证各台机器之间通过机器名可以互访,例如:       172.16.200.4  node1(master)         172.16.200.5  node2 (slave1)         172.16.200.6  node3 (slave2)     主机信息:   机器名   IP地址 作用 master 172.16.200.4 NameNode.JobTracker Node1

Hadoop安装遇到各种异常以及解决方法

异常一: 2014-03-13 11:10:23,665 INFO org.apache.Hadoop.ipc.Client: Retrying connect to server: Linux-hadoop-38/10.10.208.38:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumhttp://www.aliyun.com/zixun/aggregation/16460.html">CountWithFi

Hadoop安装遇到的各种异常及解决办法

2014-03-13 11:10:23,665 INFO org.apache.Hadoop.ipc.Client: Retrying connect to server: Linux-hadoop-38/10.10.208.38:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 2014-03-13 11:1