问题描述
最近才开始搞spark,请问各位大神怎么让spark高效的读取Hdfs上的二进制文件,求解决,急~~~
解决方案
解决方案二:
SparkContext中有sequenceFile[K,V]方法用来读取序列化二进制文件,K和V是文件中的key和values类型。它们必须是Hadoop的Writable的子类。
解决方案三:
解决方案四:
谢谢,我试试
时间: 2024-10-26 05:48:31
最近才开始搞spark,请问各位大神怎么让spark高效的读取Hdfs上的二进制文件,求解决,急~~~
解决方案二:
SparkContext中有sequenceFile[K,V]方法用来读取序列化二进制文件,K和V是文件中的key和values类型。它们必须是Hadoop的Writable的子类。
解决方案三:
解决方案四:
谢谢,我试试