Spark调用程序出错

问题描述

10.0.15.104为master,10.0.15.105和10.0.15.106是worker,slave文件设置为:10.0.15.105和10.0.15.106spark-env.sh设置为:exportSCALA_HOME=/app/spark/scala-2.10.3exportHADOOP_HOME=/app/hadoop-2.2.0exportHADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoopSPARK_WORKER_INSTANCES=3SPARK_MASTER_PORT=8081SPARK_MASTER_WEBUI_PORT=8090SPARK_WORKER_PORT=8091SPARK_MASTER_IP=10.0.15.104SPARK_WORKER_DIR=/app/spark/spark-0.9.1-bin-hadoop2/worker但是当我调用按照下面去调用JavaSparkContext时总是报错。Stringmaster="spark://10.0.15.104:8081";StringsparkHome="/app/spark/spark-0.9.1-bin-hadoop2";StringappName="JavaWordCount";String[]jarArray=JavaSparkContext.jarOfClass(WordCount.class);JavaSparkContextctx=newJavaSparkContext(master,appName,sparkHome,jarArray);结果就一直报下面的错误,/220.250.64.18:0这个IP不知道从哪里来的,我根本就设置过这个日夜期盼大神出手指点迷津Exceptioninthread"main"org.jboss.netty.channel.ChannelException:Failedtobindto:/220.250.64.18:0atorg.jboss.netty.bootstrap.ServerBootstrap.bind(ServerBootstrap.java:272)atakka.remote.transport.netty.NettyTransport$$anonfun$listen$1.apply(NettyTransport.scala:391)atakka.remote.transport.netty.NettyTransport$$anonfun$listen$1.apply(NettyTransport.scala:388)atscala.util.Success$$anonfun$map$1.apply(Try.scala:206)atscala.util.Try$.apply(Try.scala:161)atscala.util.Success.map(Try.scala:206)atscala.concurrent.Future$$anonfun$map$1.apply(Future.scala:235)atscala.concurrent.Future$$anonfun$map$1.apply(Future.scala:235)atscala.concurrent.impl.CallbackRunnable.run(Promise.scala:32)atakka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.processBatch$1(BatchingExecutor.scala:67)atakka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.apply$mcV$sp(BatchingExecutor.scala:82)atakka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.apply(BatchingExecutor.scala:59)atakka.dispatch.BatchingExecutor$Batch$$anonfun$run$1.apply(BatchingExecutor.scala:59)atscala.concurrent.BlockContext$.withBlockContext(BlockContext.scala:72)atakka.dispatch.BatchingExecutor$Batch.run(BatchingExecutor.scala:58)atakka.dispatch.TaskInvocation.run(AbstractDispatcher.scala:42)atakka.dispatch.ForkJoinExecutorConfigurator$AkkaForkJoinTask.exec(AbstractDispatcher.scala:386)atscala.concurrent.forkjoin.ForkJoinTask.doExec(ForkJoinTask.java:260)atscala.concurrent.forkjoin.ForkJoinPool$WorkQueue.runTask(ForkJoinPool.java:1339)atscala.concurrent.forkjoin.ForkJoinPool.runWorker(ForkJoinPool.java:1979)atscala.concurrent.forkjoin.ForkJoinWorkerThread.run(ForkJoinWorkerThread.java:107)Causedby:java.net.BindException:无法指定被请求的地址atsun.nio.ch.Net.bind(NativeMethod)atsun.nio.ch.ServerSocketChannelImpl.bind(ServerSocketChannelImpl.java:124)atsun.nio.ch.ServerSocketAdaptor.bind(ServerSocketAdaptor.java:59)atorg.jboss.netty.channel.socket.nio.NioServerBoss$RegisterTask.run(NioServerBoss.java:193)atorg.jboss.netty.channel.socket.nio.AbstractNioSelector.processTaskQueue(AbstractNioSelector.java:366)atorg.jboss.netty.channel.socket.nio.AbstractNioSelector.run(AbstractNioSelector.java:290)atorg.jboss.netty.channel.socket.nio.NioServerBoss.run(NioServerBoss.java:42)atjava.util.concurrent.ThreadPoolExecutor$Worker.runTask(ThreadPoolExecutor.java:895)atjava.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:918)atjava.lang.Thread.run(Thread.java:662)

解决方案

解决方案二:
exportSPARK_MASTER_IP=localhostexportSPARK_LOCAL_IP=localhost
解决方案三:
建议你连接master的时候尽量用hostname去连接,不然会连不上的。

时间: 2024-10-22 20:06:30

Spark调用程序出错的相关文章

winexec调用外部exe程序出错

问题描述 winexec调用外部exe程序出错 有没有遇到过 用winexec调用外部exe程序 一段时间后出现程序莫名其妙的退出了.请问大家,是什么原因呢 解决方案 winexec本身不会对程序有任何修改.如果程序莫名其妙退出,并且假设你直接在explorer中双击打开没有这个问题,主要检查下启动运行路径和系统权限这两个问题. 解决方案二: 主程序是c#写的winform程序,在主程序里面调用winexec程序来调用外部的exe程序,运行一段时间之后才出现,平时都没有问题.弹出一个对话框,点继

wcf-C#窗体程序调用WCF出错

问题描述 C#窗体程序调用WCF出错 先写了一个WCF服务 ,发布到了IIS上,然后又创建一个窗体程序,添加引用服务的时候成功地把服务引了进来,可是在执行窗体程序的时候出错,提示"在 ServiceModel 客户端配置部分中,找不到引用协定"ServiceReference1.ISendJsonIntoDatabase"的默认终结点元素.这可能是因为未找到应用程序的配置文件,或者是因为客户端元素中找不到与此协定匹配的终结点元素." 这是为什么呢?我看网上说可能和w

使用Java编写并运行Spark应用程序

我们首先提出这样一个简单的需求: 现在要分析某网站的访问日志信息,统计来自不同IP的用户访问的次数,从而通过Geo信息来获得来访用户所在国家地区分布状况.这里我拿我网站的日志记录行示例,如下所示: 1 121.205.198.92 - - [21/Feb/2014:00:00:07 +0800] "GET /archives/417.html HTTP/1.1" 200 11465 "http://shiyanjun.cn/archives/417.html/" &

《Spark核心技术与高级应用》——2.3节运行Spark应用程序

2.3 运行Spark应用程序 运行Spark应用程序主要包括Local模式运行.Standalone模式运行.YARN模式运行.Mesos模式运行(参考官方文档).2.3.1 Local模式运行Spark应用程序 Local模式运行Spark应用程序是最简单的方式,以计算圆周率的程序为例,进入安装主目录,如spark-1.5.0,执行命令: # 提交Spark任务的入口 ./bin/spark-submit \ #主程序设置本地,local[],其中是指设置线程数 --master local

jdbc处理存储过程的小程序出错啦 向各位大神请教一下

问题描述 jdbc处理存储过程的小程序出错啦 向各位大神请教一下 import java.sql.*; public class TestProc { public static void main(String[] args) throws Exception{ Class.forName("oracle.jdbc.driver.OracleDriver"); Connection conn = DriverManager.getConnection( "jdbc:orac

Spark修炼之道(高级篇)——Spark源码阅读:第一节 Spark应用程序提交流程

作者:摇摆少年梦 微信号: zhouzhihubeyond spark-submit 脚本应用程序提交流程 在运行Spar应用程序时,会将spark应用程序打包后使用spark-submit脚本提交到Spark中运行,执行提交命令如下: root@sparkmaster:/hadoopLearning/spark-1.5.0-bin-hadoop2.4/bin# ./spark-submit --master spark://sparkmaster:7077 --class SparkWordC

WCF分布式开发常见错误解决(3):客户端调用服务出错

我们手动编码使用客户端调用WCF服务的时候会出现服务不支持 .Net Framing的错误 , 具体信息如下: You have tried to create a channel to a service that does not support .Net Framing. It is possible that you are encountering an HTTP endpoint. 开发常见错误解决(3):客户端调用服务出错-"> 解决办法: 检查宿主进程里,WCF服务的终结点

Win8系统安装KB2770917程序出错的解决方案

Win8更新程序(KB2770917)安装失败怎么办?很多用户在Windows8系统下重启更新程序时遇到更新失败状况,之后系统就自动执行回滚操作,关于这个问题,系统高手给出了以下的解决方案. Win8系统安装KB2770917程序出错的解决方案: 1.利用Win + R快捷键调出"运行"对话框,输入"msconfig",确定运行,打开"系统配置"窗口; 2.切换到"服务"选项卡,勾选下面的"隐藏所有Microsoft

delphi excel-delphi调用excel出错Interface not supported

问题描述 delphi调用excel出错Interface not supported dephi调用excel,动态法调用是正确的,但使用控件法出现错误interface not supported 解决方案 在uses 中加入comobj这个引用哟