如何修改spark源码,更改程序名称。

问题描述

想修改spark源码,想把程序的名称改为其他的,而不是spark,这个怎么修改呢?源码中有用到APPLICATION_NAMEpublicstaticfinalStringAPPLICATION_NAME="APPLICATION_NAME";在default.java中,这个APPLICATION_NAME,程序是如何自动获取"spark"这个名称的,想修改又如何修改。大神们帮帮忙啊

时间: 2025-01-21 08:29:15

如何修改spark源码,更改程序名称。的相关文章

如何对Spark 源码修改后在Eclipse中使用

问题描述 以前是在Eclipse新建项目,通过Maven导入的Spark依赖包,现在需要对Spark源码修改.从官网下载了SourceCode,修改后不知道怎么在Eclipse项目里使用,希望得到大神的指点! 解决方案 解决方案二:Eclipse下开发调试环境的配置该小节中使用的各项工具分别为:Windows7+EclipseJavaEE4.4.2+Scala2.10.4+Sbt0.13.8+Maven3.3.3,测试的Spark版本为1.4.0.1.配置IDE:选择菜单项Help->Insta

Apache Spark源码走读(三)Spark on Yarn &Spark源码编译 &在YARN上运行SparkPi

<一>Spark on Yarn 概要 Hadoop2中的Yarn是一个分布式计算资源的管理平台,由于其有极好的模型抽象,非常有可能成为分布式计算资源管理的事实标准.其主要职责将是分布式计算集群的管理,集群中计算资源的管理与分配. Yarn为应用程序开发提供了比较好的实现标准,Spark支持Yarn部署,本文将就Spark如何实现在Yarn平台上的部署作比较详尽的分析. Spark Standalone部署模式回顾 上图是Spark Standalone Cluster中计算模块的简要示意,从

修改VCL源码实现自定义输入对话框

通过修改VCL源码实现自定义输入对话框 在BCB中有两个函数可以实现输入对话框:InputBox和InputQuery,其实InputBox也是调用了InputQuery,这个函数有几个缺点: (1).输入对话框上的按钮是英文的. (2).不能实现星号密码的效果. 但在实际编程中经常会遇到这样的问题.全是中文的界面和提示,可是在输入对话框中却是英文的按钮,显的有些不协调,而且有时在Win2k下做的程序,换在Win98下的时候,输入对话框中的提示会显示不完整.通常在Form中可以通过更改默认字体为

Spark源码分析之九:内存管理模型

        Spark是现在很流行的一个基于内存的分布式计算框架,既然是基于内存,那么自然而然的,内存的管理就是Spark存储管理的重中之重了.那么,Spark究竟采用什么样的内存管理模型呢?本文就为大家揭开Spark内存管理模型的神秘面纱.         我们在<Spark源码分析之七:Task运行(一)>一文中曾经提到过,在Task被传递到Executor上去执行时,在为其分配的TaskRunner线程的run()方法内,在Task真正运行之前,我们就要构造一个任务内存管理器Task

​第2课 Scala面向对象彻底精通及Spark源码SparkContext,RDD阅读总结

本期内容: 1 Scala中的类.object实战详解 2 Scala中的抽象类.接口实战详解 3 综合案例及Spark源码解析 一:定义类 class HiScala{ private var name = "Spark" def sayName(){ println(name) } def getName = name } Scala中,变量与类中的方法是同等级的,可以直接相互赋值.与java不同的是类中的属性必须初始化,例如name属性不初始化,就会报错. scala中的get与

Apache Spark源码走读(六)Task运行期之函数调用关系分析 &amp;存储子系统分析

<一>Task运行期之函数调用关系分析 概要 本篇主要阐述在TaskRunner中执行的task其业务逻辑是如何被调用到的,另外试图讲清楚运行着的task其输入的数据从哪获取,处理的结果返回到哪里,如何返回. 准备 spark已经安装完毕 spark运行在local mode或local-cluster mode local-cluster mode local-cluster模式也称为伪分布式,可以使用如下指令运行 MASTER=local[1,2,1024] bin/spark-shell

Spark源码分析之四:Stage提交

        各位看官,上一篇<Spark源码分析之Stage划分>详细讲述了Spark中Stage的划分,下面,我们进入第三个阶段--Stage提交.         Stage提交阶段的主要目的就一个,就是将每个Stage生成一组Task,即TaskSet,其处理流程如下图所示:         与Stage划分阶段一样,我们还是从handleJobSubmitted()方法入手,在Stage划分阶段,包括最好的ResultStage和前面的若干ShuffleMapStage均已生成,那

emacs+ensime+sbt打造spark源码阅读环境

概述 Scala越来越流行, Spark也愈来愈红火, 对spark的代码进行走读也成了一个很普遍的行为.不巧的是,当前java社区中很流行的ide如eclipse,netbeans对scala的支持都不算太好.在这种情况下不得不想到编辑器之神emacs,利用emacs+ensime来打造scala编程环境. 本文讲述的步骤全部是在arch linux上,其它发行版的linux视具体情况变通. 安装scala pacman -S scala 安装sbt pacman -S sbt 安装ensim

Apache Spark源码走读(七)Standalone部署方式分析&amp;sql的解析与执行

<一>Standalone部署方式分析 楔子 在Spark源码走读系列之2中曾经提到Spark能以Standalone的方式来运行cluster,但没有对Application的提交与具体运行流程做详细的分析,本文就这些问题做一个比较详细的分析,并且对在standalone模式下如何实现HA进行讲解. 没有HA的Standalone运行模式 先从比较简单的说起,所谓的没有ha是指master节点没有ha. 组成cluster的两大元素即Master和Worker.slave worker可以有