问题描述
安装了Spark之后运行bin/run-exampleSparkPilocal
报错java.lang.ClassNotFoundException:org.apache.spark.examples.SparkPiatjava.net.URLClassLoader$1.run(URLClassLoader.java:366)atjava.net.URLClassLoader$1.run(URLClassLoader.java:355)atjava.security.AccessController.doPrivileged(NativeMethod)atjava.net.URLClassLoader.findClass(URLClassLoader.java:354)atjava.lang.ClassLoader.loadClass(ClassLoader.java:425)atjava.lang.ClassLoader.loadClass(ClassLoader.java:358)atjava.lang.Class.forName0(NativeMethod)atjava.lang.Class.forName(Class.java:270)atorg.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:538)atorg.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:166)atorg.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:189)atorg.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:110)atorg.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
spark-env.sh配置如下:exportSCALA_HOME=/usr/lib/scala/scala-2.10.5exportJAVA_HOME=/usr/java/defaultexportHADOOP_HOME=/usr/hadoop-2.6.0exportSPARK_MASTER_IP=10.91.230.74--主机IP地址exportHADOOP_CONF_DIR=/usr/hadoop-2.6.0/etc/hadoopexportSPARK_MASTER_PORT=7077谁能告诉我这究竟是为什么!!!跪求!
解决方案
解决方案二:
exportCLASSPATH=${example'sjar}:$CLASSPATH
解决方案三:
其实我也不知道
解决方案四:
我真的不知道
解决方案五:
不太明白。。。
解决方案六:
javahome换成自己安装的jdk地址
解决方案七:
不明白。。。
解决方案八:
我是来看看的