HDFS中JAVA API的使用

  HDFS是一个分布式文件系统,既然是文件系统,就可以对其文件进行操作,比如说新建文件、删除文件、读取文件内容等操作。下面记录一下使用JAVA API对HDFS中的文件进行操作的过程。

  对分HDFS中的文件操作主要涉及一下几个类:

  Configuration类:该类的对象封转了客户端或者服务器的配置。

  FileSystem类:该类的对象是一个文件系统对象,可以用该对象的一些方法来对文件进行操作。FileSystem fs = FileSystem.get(conf);通过FileSystem的静态方法get获得该对象。

  FSDataInputStream和FSDataOutputStream:这两个类是HDFS中的输入输出流。分别通过FileSystem的open方法和create方法获得。

具体如何对文件操作清下下面例子:

  1 package com.hdfs;
  2
  3 import java.io.FileInputStream;
  4 import java.io.IOException;
  5 import java.io.InputStream;
  6
  7 import org.apache.hadoop.conf.Configuration;
  8 import org.apache.hadoop.fs.FSDataOutputStream;
  9 import org.apache.hadoop.fs.FileStatus;
 10 import org.apache.hadoop.fs.FileSystem;
 11 import org.apache.hadoop.fs.Path;
 12 import org.apache.hadoop.io.IOUtils;
 13
 14 public class HdfsTest {
 15
 16     //创建新文件
 17     public static void createFile(String dst , byte[] contents) throws IOException{
 18         Configuration conf = new Configuration();
 19         FileSystem fs = FileSystem.get(conf);
 20         Path dstPath = new Path(dst); //目标路径
 21         //打开一个输出流
 22         FSDataOutputStream outputStream = fs.create(dstPath);
 23         outputStream.write(contents);
 24         outputStream.close();
 25         fs.close();
 26         System.out.println(“文件创建成功!”);
 27     }
 28
 29     //上传本地文件
 30     public static void uploadFile(String src,String dst) throws IOException{
 31         Configuration conf = new Configuration();
 32         FileSystem fs = FileSystem.get(conf);
 33         Path srcPath = new Path(src); //原路径
 34         Path dstPath = new Path(dst); //目标路径
 35         //调用文件系统的文件复制函数,前面参数是指是否删除原文件,true为删除,默认为false
 36         fs.copyFromLocalFile(false,srcPath, dstPath);
 37
 38         //打印文件路径
 39         System.out.println(“Upload to “+conf.get(“fs.default.name”));
 40         System.out.println(“————list files————“+”\n”);
 41         FileStatus [] fileStatus = fs.listStatus(dstPath);
 42         for (FileStatus file : fileStatus)
 43         {
 44             System.out.println(file.getPath());
 45         }
 46         fs.close();
 47     }
 48
 49     //文件重命名
 50     public static void rename(String oldName,String newName) throws IOException{
 51         Configuration conf = new Configuration();
 52         FileSystem fs = FileSystem.get(conf);
 53         Path oldPath = new Path(oldName);
 54         Path newPath = new Path(newName);
 55         boolean isok = fs.rename(oldPath, newPath);
 56         if(isok){
 57             System.out.println(“rename ok!”);
 58         }else{
 59             System.out.println(“rename failure”);
 60         }
 61         fs.close();
 62     }
 63     //删除文件
 64     public static void delete(String filePath) throws IOException{
 65         Configuration conf = new Configuration();
 66         FileSystem fs = FileSystem.get(conf);
 67         Path path = new Path(filePath);
 68         boolean isok = fs.deleteOnExit(path);
 69         if(isok){
 70             System.out.println(“delete ok!”);
 71         }else{
 72             System.out.println(“delete failure”);
 73         }
 74         fs.close();
 75     }
 76
 77     //创建目录
 78     public static void mkdir(String path) throws IOException{
 79         Configuration conf = new Configuration();
 80         FileSystem fs = FileSystem.get(conf);
 81         Path srcPath = new Path(path);
 82         boolean isok = fs.mkdirs(srcPath);
 83         if(isok){
 84             System.out.println(“create dir ok!”);
 85         }else{
 86             System.out.println(“create dir failure”);
 87         }
 88         fs.close();
 89     }
 90
 91     //读取文件的内容
 92     public static void readFile(String filePath) throws IOException{
 93         Configuration conf = new Configuration();
 94         FileSystem fs = FileSystem.get(conf);
 95         Path srcPath = new Path(filePath);
 96         InputStream in = null;
 97         try {
 98             in = fs.open(srcPath);
 99             IOUtils.copyBytes(in, System.out, 4096, false); //复制到标准输出流
100         } finally {
101             IOUtils.closeStream(in);
102         }
103     }
104
105
106     public static void main(String[] args) throws IOException {
107         //测试上传文件
108         //uploadFile(“D:\c.txt”, “/user/hadoop/test/“);
109         //测试创建文件
110         /byte[] contents =  “hello world 世界你好\n”.getBytes();
111         createFile(“/user/hadoop/test1/d.txt”,contents);/
112         //测试重命名
113         //rename(“/user/hadoop/test/d.txt”, “/user/hadoop/test/dd.txt”);
114         //测试删除文件
115         //delete(“test/dd.txt”); //使用相对路径
116         //delete(“test1”);    //删除目录
117         //测试新建目录
118         //mkdir(“test1”);
119         //测试读取文件
120         readFile(“test1/d.txt”);
121     }
122
123 }
时间: 2024-10-25 08:36:11

HDFS中JAVA API的使用的相关文章

sqoop client java api将mysql的数据导到hdfs

问题描述 sqoop client java api将mysql的数据导到hdfs package com.hadoop.recommend; import org.apache.sqoop.client.SqoopClient; import org.apache.sqoop.model.MDriverConfig; import org.apache.sqoop.model.MFromConfig; import org.apache.sqoop.model.MJob; import org

《Hadoop与大数据挖掘》一2.4.1 HDFS Java API操作

2.4.1 HDFS Java API操作 Hadoop中关于文件操作类基本上是在org.apache.hadoop.fs包中,这些API能够支持的操作有:打开文件,读写文件,删除文件,创建文件.文件夹,判断是文件或文件夹,判断文件或文件夹是否存在等. Hadoop类库中最终面向用户提供的接口类是FileSystem,这个类是个抽象类,只能通过类的get方法得到其实例.get方法有几个重载版本,如图2-28所示. 比较常用的是第一个,即灰色背景的方法. FileSystem针对HDFS相关操作的

《Android游戏开发详解》一2.18 使用Java API中的对象

2.18 使用Java API中的对象 Android游戏开发详解现在,让我们暂时从创建自己的类告一段落,来享受一下Java自带的现成的类.使用已有的编程语言,而不是自己创造一种编程语言,其好处在于你可以获取已有的代码,并且在自己的项目中实现它们.好在对于我们来说,Java类配备了内容广泛的文档,涉及它们所包含的变量.如何初始化这些变量,以及它们执行哪些行为,从而我们可以将这些类用于自己的程序,并且只关注它们特定于我们的项目的重要问题. 可以通过如下的链接访问Java SE7的完整文档:http

《Android游戏开发详解》——第2章,第2.18节使用Java API中的对象

2.18 使用Java API中的对象Android游戏开发详解现在,让我们暂时从创建自己的类告一段落,来享受一下Java自带的现成的类.使用已有的编程语言,而不是自己创造一种编程语言,其好处在于你可以获取已有的代码,并且在自己的项目中实现它们.好在对于我们来说,Java类配备了内容广泛的文档,涉及它们所包含的变量.如何初始化这些变量,以及它们执行哪些行为,从而我们可以将这些类用于自己的程序,并且只关注它们特定于我们的项目的重要问题.

Hadoop中使用FileStatus类来查看HDFS中文件或目录的元信息

Hadoop中的FileStatus类可以用来查看HDFS中文件或者目录的元信息,任意的文件或者目录都可以拿到对应的FileStatus, 我们这里简单的演示下这个类的相关API: /* */ package com.charles.hadoop.fs; import java.net.URI; import java.sql.Timestamp; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.F

HBase Java API详解

[本文转自HBase Java API详解] HBase是Hadoop的数据库,能够对大数据提供随机.实时读写访问.他是开源的,分布式的,多版本的,面向列的,存储模型. 在讲解的时候我首先给大家讲解一下HBase的整体结构,如下图: HBase Master是服务器负责管理所有的HRegion服务器,HBase Master并不存储HBase服务器的任何数据,HBase逻辑上的表可能会划分为多个HRegion,然后存储在HRegion Server群中,HBase Master Server中存

hadoop下的存储在hdfs中的视频文件怎么播放?

问题描述 hadoop下的存储在hdfs中的视频文件怎么播放? hadoop下的存储在hdfs中的视频文件怎么播放?可以直接拿到视频文件的http路径吗,我现在想实现的是像百度云这样的可以在线播放,但是不知道怎么得到文件的路径,而hdfs提供的API只有上传下载文件这些,对于这样的问题要怎么解决呢?? 解决方案 你需要用HDFS API来获取 package org.myorg.hdfsdemo; import java.io.BufferedReader; import java.io.IOE

使用Java API处理WebSphere MQ大消息

WebSphere MQ 中处理大消息的方法 使用过 WebSphere MQ 的读者都知道,WebSphere MQ 对处理的单条消息的大小是有限制的,目前支持的最大消息是100M,而且,随着消息大小的增大,WebSphere MQ 处理的性能也会随之下降.从最佳实践来说,WebSphere MQ 传输大小为几K的消息其效率是最高的.那如何使 WebSphere MQ 能高效的处理大消息呢? WebSphere MQ 提供了处理大消息的两种方法:消息分片和消息分组.下面我们来看在使用 Java

Java API的Date, Calendar日期处理相关类分析

calendar 简介 在计算机程序中精确的处理日期是困难的.不仅有显而易见的(英语: January, 法语: Janvier, 德语: Januar, 等)国际化需求, 而且得考虑不同的日期系统(并非所有的文化都用基督耶稣的生日作为纪年的开始).如有高精度或非常大规模的时间需要被处理, 就有额外的方面需要被注意,比如闰秒或时间系统的变化.(公历(阳历, 格里高利历法)在西方被普遍接受是在1582年,但并非所有的国家在同一天接受!) 尽管有关于闰秒, 时区, 夏令时, 阴历的问题, 度量时间却