如何做Spark 版本兼容

案例

在Spark 1.6 时,大部分机器学习相关的类使用的向量还是

org.apache.spark.mllib.linalg.Vector

而到2.0后,已经基本都变更成

org.apache.spark.ml.linalg.Vector

同理对应的Vectors object 也是。这就造成了一个比较大的困难,比如下面的代码就很难做到兼容了,切换Spark就无法通过编译:

//定义一个函数,将一个字符串转化为Vector
val t = udf { (features: String) =>

      if (!features.contains(":")) {
        val v = features.split(",|\\s+").map(_.toDouble)
        Vectors.dense(v)
      } else {
        val v = features.split(",|\\s+").map(_.split(":")).map(f => (f(0).toInt, f(1).toDouble))
        Vectors.sparse(vectorSize, v)
      }

    }

//Dataframe转化为只有label 和 features列。
training.select(
      col("label") cast (org.apache.spark.sql.types.DoubleType),
      t(col("features")) as "features"
)

无论你怎么写,都没办法在Spark 1.6 和 Spark 2.0 同时表现正常,总是会报错的,因为 Vector,Vectors等类的包名都发生了变化。

在Spark中,你可以通过 org.apache.spark.SPARK_VERSION 获取Spark的版本。我们定义一个类:

object SparkCompatibility {
def sparkVersion = {     org.apache.spark.SPARK_VERSION  }

动态编译

Scala 是可以很方便的动态源码的,对于而且代码也很简单,大体如下:

object ScalaSourceCodeCompiler {

  def compileCode(code: String): Any = {
    import scala.reflect.runtime.universe._
    val cm = runtimeMirror(Utils.getContextOrSparkClassLoader)
    val toolbox = cm.mkToolBox()
    val tree = toolbox.parse(code)
    val ref = toolbox.compile(tree)()
    ref
  }

这种效果和Spark Shell里是类似的,ref 是里面的一个返回值。正常情况,你可以写两份代码,一份Spark 1.6. 一份Spark 2.0 ,然后在运行时决定编译那份代码。然而这种方式有一个缺点,尤其是在Spark中很难避免,如果compileCode 返回的值ref是需要被序列化到Executor的,则反序列化会导致问题,因为里面生成的一些匿名类在Executor中并不存在。除此之外,这种方法是实现兼容最有效的办法。

原先我考虑过使用Spark 内部的CodeGen代码,大致如下:

    def compileCode3[T](codeBody: String, references: Array[Any]): T = {
      val code = CodeFormatter.stripOverlappingComments(
        new CodeAndComment(codeBody, Map()))

      val c = CodeGenerator.compile(code)
      c.generate(references).asInstanceOf[T]
    }

不幸的是,这个API本身也在变化,譬如CodeAndComment就是只有2.0才有的。

分离项目方式

将API有变化的部分,独立出来。比如前面我们提到的,对于Vector相关的API,1.6 和2.0 是不同的,那么我们可以剥离出两个工程,每个工程适配对应的版本,然后发布jar包,在Maven中根据Profile机制,根据Spark版本引入不同的适配包。这种方式相对来说比较繁琐。

反射的方法(StreamingPro在使用的方式)

下面是我用来解决Vector 包名变化的代码:

def vectorizeByReflect(vectorSize: Int) = {

    val clzzName =
      if (org.apache.spark.SPARK_VERSION.startsWith("2")) {
        "org.apache.spark.ml.linalg.Vectors"
      } else {
        "org.apache.spark.mllib.linalg.Vectors"
      }

    val reslutClzzName = if (org.apache.spark.SPARK_VERSION.startsWith("2")) {
      "org.apache.spark.ml.linalg.Vector"
    } else {
      "org.apache.spark.mllib.linalg.Vector"
    }
    def dense(v: Array[Double]) = {
      Class.forName(clzzName).getMethod("dense", classOf[Array[Double]]).invoke(null, v)
    }

    def sparse(vectorSize: Int, v: Array[(Int, Double)]) = {
      val method = Class.forName(clzzName).getMethod("sparse", classOf[Int], classOf[Seq[(Int, Double)]])
      val vs: Integer = vectorSize
      method.invoke(null, vs, v.toSeq)
    }

    val t = functions2.udf(reslutClzzName, (features: String) => {
      if (!features.contains(":")) {
        val v = features.split(",|\\s+").map(_.toDouble)
        dense(v)
      } else {
        val v = features.split(",|\\s+").map(_.split(":")).map(f => (f(0).toInt, f(1).toDouble))
        sparse(vectorSize, v)
      }
    })

    t
  }

我们根据不同版本,动态加载对应的类,然后通过反射来调用方法,从而避免编译时错误。然而通过反射,就无法使用类似的代码了:

val t = udf {
 .....
}

因为 udf 函数要求能够推导出输入和返回值是什么。而如果通过反射,因为返回值我们无法确定(有可能是org.apache.spark.ml.linalg.Vector,也有可能是org.apache.spark.mllib.linalg.Vector),这个时候就无法通过编译了。于是我们改写了udf的是实现,然而这个实现也遇到了挫折,因为里面用到比如UserDefinedFunction类,已经在不同的包里面了,我们依然通过放射的方案解决:

def udf[RT: TypeTag, A1: TypeTag](className: String, f: Function1[A1, RT]): Any = {

    if (SparkCompatibility.sparkVersion.startsWith("2")) {
      val inputTypes = Try(ScalaReflection.schemaFor(typeTag[A1]).dataType :: Nil).toOption
      val dufReg = Class.forName("org.apache.spark.sql.types.UDTRegistration").
        getMethod("getUDTFor", classOf[String]).invoke(null, className).asInstanceOf[Option[Class[_]]]
      val udt = dufReg.get.newInstance().asInstanceOf[UserDefinedType[_]]
      Class.forName("org.apache.spark.sql.expressions.UserDefinedFunction").
        getConstructor(classOf[AnyRef], classOf[DataType], classOf[Option[Seq[DataType]]]).
        newInstance(f, Schema(udt, nullable = true).dataType, inputTypes)
    } else {
      val inputTypes = Try(ScalaReflection.schemaFor(typeTag[A1]).dataType :: Nil).toOption.get.toSeq
      val udt = org.apache.spark.util.Utils.classForName(className)
        .getAnnotation(classOf[SQLUserDefinedType]).udt().newInstance().asInstanceOf[UserDefinedType[_]]
      Class.forName("org.apache.spark.sql.UserDefinedFunction").
        getConstructor(classOf[AnyRef], classOf[DataType], classOf[Seq[DataType]]).
        newInstance(f, Schema(udt, nullable = true).dataType, inputTypes)

    }
  }

很丑陋,对不对。这里还有一个问题,虽然udf返回的都是UserDefinedFunction对象,然而他们也是版本不兼容的,也就是我们无法让编译器确定返回的值是什么。我们使用了另外一个Scala语法的技巧,如下:

val t = functions2.udf(reslutClzzName, (features: String) => {
      if (!features.contains(":")) {
        val v = features.split(",|\\s+").map(_.toDouble)
        dense(v)
      } else {
        val v = features.split(",|\\s+").map(_.split(":")).map(f => (f(0).toInt, f(1).toDouble))
        sparse(vectorSize, v)
      }
    }).asInstanceOf[{def apply(exprs: Column*): Column}]

核心在最后一行,我们声称返回的对象满足这个签名:

{def apply(exprs: Column*): Column}

这个时候,就可以直接使用了:

training.select(
col("label") cast (org.apache.spark.sql.types.DoubleType),
t(col("features")) as "features")

总结

Spark 1.6 和2.0 内部API变化很大,然而对普通用户的API兼容性还是不错的。做版本兼容似乎并不是一件容易的事情。所以当使用StreamingPro做机器学习相关工作时,我只兼容了Spark 1.6,2.0,而抛弃了 1.5版本。但是对于普通的ETL以及流式计算,三个版本都是支持的。

时间: 2024-10-30 13:28:20

如何做Spark 版本兼容的相关文章

解决Linux动态库版本兼容问题

说道"动态库版本兼容",很多人头脑中首先蹦出的就是"Dll Hell".啊,这曾经让人头疼的难题.时至今日,这个难题已经很好地解决了. 在进一步讨论之前来思考一个问题:Linux下为什么没有让人头痛的"DllHell"?回答这个问题,非常easy,因为--Linux下根本没有dll! 哈哈,当然这只是个玩笑,接下来展开一下这个话题,很多有动态库的系统都会面临这个难题,但各自解决的思路却各不相同. Dll hell是指windows 上动态库新版本

adt-安卓界面滑动带来的版本兼容问题

问题描述 安卓界面滑动带来的版本兼容问题 我在一个程序里增加了界面左右滑动(类似于欢迎界面)的功能.实现的方法是在activity对应的XML文件中,采用<android.support.v4.view.ViewPager这样的布局.我在开发过程中一只是才用2.2的模拟器测试,非常顺利. 直到前些天我用4.2的模拟器运行,突然发现不行了!立马借了同学的安卓机(4.0)也会意外终止.在网上问人.查资料,大部分说是support.v4.jar包的问题,于是我下了最新的jar包的,覆盖到libs目录下

jdk-tomcat和JDK的版本兼容问题

问题描述 tomcat和JDK的版本兼容问题 如题,有没有人能统计一下tomcat各版本所支持的JDK的最低版本是多少? 解决方案 之前也碰到过这样的问题,那个时候是qingjiao......答案就在这里:关于jdk的版本兼容问题 解决方案二: 一般就是6对6,,7对7,,8对8,,差不多就行了

chrome-selenium与浏览器版本兼容问题

问题描述 selenium与浏览器版本兼容问题 请问 selenium2.52分别支持哪个版本的firefox, chrome, IE?各位有了解的么? 解决方案 浏览器兼容问题关于浏览器兼容问题浏览器的兼容问题 解决方案二: http://www.langsin.com/FAQ/Info/jsfx/830.html

java开发-IE浏览器 浏览器模式和文档模式 开发中调试版本兼容问题

问题描述 IE浏览器 浏览器模式和文档模式 开发中调试版本兼容问题 我现在电脑安装的是ie10,当我在开发中想测试页面是否兼容10以下的版本时,是通过切换浏览器模式至低版本,还是切换文档模式至低版本,还是同时都切换,并保持一致. 希望用IE开发的老工程师回答,感激. 解决方案 装一个IETester,IETester是一个免费的WebBrowser控件,让您有渲染和IE8的JavaScript引擎,IE7和IE 6在Windows 7,Vista和XP的IE5.5中,以及在同一进程中安装的IE浏

版本兼容 推送 ,,,,

问题描述 版本兼容 推送 ,,,, 在iOS应用发布中,1.0版本没有推送功能,,1.1版本客户要求加推送功能,这个时候怎么兼容1.0版本的手机用户? 解决方案 你的请求接口加上一个版本号的判断,1.1传这个参数,如果是有版本的,那么就按照新的版本处理,否则走老的代码 解决方案二: 在 RESTFUL 中,关于版本的解释我看过的文章里面多提到的是,通过请求URL来控制大版本的改动,如 V1,V2 通过 HEADER 控制小版本的维护,如 V1.0.1,V1.1.2

Excel2010如何与低版本兼容

  1.打开需要保存的Excel表格,点击工具栏的"保存"按钮 2.这个时候会跳出"另存为"页面,系统默认的保存类型为xlsx. 3.为了使其兼容低端版本,我们可以将其改为"Excel97-2003工作簿"格式,这样我们保存文件后就可以使用低端版本打开文件啦.

【原】iphone6来了,我该做点什么(兼容iphone6的方法)

北京时间2014年9月10日凌晨1点,苹果公司正式发布其新一代产品 iPhone6,相信做webapp开发的同学对它是充满了好奇和等待,也担心它带来各种坑爹,高清的分辨率,升级的retina显示屏,我们该如何做好适配呢? 相比iPhone5,iPhone6拥有更高分辨率的retina HD display,而iPhone6 plus的像素密度达到了401ppi,相比原来的326ppi,提升了25%,显示画面细节更丰富. iPhone6 Plus设备高为736pt,宽为414pt,缩放比例为@3X

有在做Spark上实现ADMM的朋友么?

问题描述 本人是研一在读,最近在做期末的project,老师给的题目是用ADMM实现Lasso,Spark上还没有找到ADMM的优化包,所以想问下有没有人曾经研究过这个,可以交流一下!请各位大神帮忙,谢谢!QQ:597123266