HDFS中JAVA API的使用
HDFS是一个分布式文件系统,既然是文件系统,就可以对其文件进行操作,比如说新建文件、删除文件、读取文件内容等操作。下面记录一下使用JAVA API对HDFS中的文件进行操作的过程。
对分HDFS中的文件操作主要涉及一下几个类:
Configuration类:该类的对象封转了客户端或者服务器的配置。
FileSystem类:该类的对象是一个文件系统对象,可以用该对象的一些方法来对文件进行操作。FileSystem fs = FileSystem.get(conf);通过FileSystem的静态方法get获得该对象。
FSDataInputStream和FSDataOutputStream:这两个类是HDFS中的输入输出流。分别通过FileSystem的open方法和create方法获得。
具体如何对文件操作清下下面例子:
1 package com.hdfs; 2 3 import java.io.FileInputStream; 4 import java.io.IOException; 5 import java.io.InputStream; 6 7 import org.apache.hadoop.conf.Configuration; 8 import org.apache.hadoop.fs.FSDataOutputStream; 9 import org.apache.hadoop.fs.FileStatus; 10 import org.apache.hadoop.fs.FileSystem; 11 import org.apache.hadoop.fs.Path; 12 import org.apache.hadoop.io.IOUtils; 13 14 public class HdfsTest { 15 16 //创建新文件 17 public static void createFile(String dst , byte[] contents) throws IOException{ 18 Configuration conf = new Configuration(); 19 FileSystem fs = FileSystem.get(conf); 20 Path dstPath = new Path(dst); //目标路径 21 //打开一个输出流 22 FSDataOutputStream outputStream = fs.create(dstPath); 23 outputStream.write(contents); 24 outputStream.close(); 25 fs.close(); 26 System.out.println(“文件创建成功!”); 27 } 28 29 //上传本地文件 30 public static void uploadFile(String src,String dst) throws IOException{ 31 Configuration conf = new Configuration(); 32 FileSystem fs = FileSystem.get(conf); 33 Path srcPath = new Path(src); //原路径 34 Path dstPath = new Path(dst); //目标路径 35 //调用文件系统的文件复制函数,前面参数是指是否删除原文件,true为删除,默认为false 36 fs.copyFromLocalFile(false,srcPath, dstPath); 37 38 //打印文件路径 39 System.out.println(“Upload to “+conf.get(“fs.default.name”)); 40 System.out.println(“————list files————“+”\n”); 41 FileStatus [] fileStatus = fs.listStatus(dstPath); 42 for (FileStatus file : fileStatus) 43 { 44 System.out.println(file.getPath()); 45 } 46 fs.close(); 47 } 48 49 //文件重命名 50 public static void rename(String oldName,String newName) throws IOException{ 51 Configuration conf = new Configuration(); 52 FileSystem fs = FileSystem.get(conf); 53 Path oldPath = new Path(oldName); 54 Path newPath = new Path(newName); 55 boolean isok = fs.rename(oldPath, newPath); 56 if(isok){ 57 System.out.println(“rename ok!”); 58 }else{ 59 System.out.println(“rename failure”); 60 } 61 fs.close(); 62 } 63 //删除文件 64 public static void delete(String filePath) throws IOException{ 65 Configuration conf = new Configuration(); 66 FileSystem fs = FileSystem.get(conf); 67 Path path = new Path(filePath); 68 boolean isok = fs.deleteOnExit(path); 69 if(isok){ 70 System.out.println(“delete ok!”); 71 }else{ 72 System.out.println(“delete failure”); 73 } 74 fs.close(); 75 } 76 77 //创建目录 78 public static void mkdir(String path) throws IOException{ 79 Configuration conf = new Configuration(); 80 FileSystem fs = FileSystem.get(conf); 81 Path srcPath = new Path(path); 82 boolean isok = fs.mkdirs(srcPath); 83 if(isok){ 84 System.out.println(“create dir ok!”); 85 }else{ 86 System.out.println(“create dir failure”); 87 } 88 fs.close(); 89 } 90 91 //读取文件的内容 92 public static void readFile(String filePath) throws IOException{ 93 Configuration conf = new Configuration(); 94 FileSystem fs = FileSystem.get(conf); 95 Path srcPath = new Path(filePath); 96 InputStream in = null; 97 try { 98 in = fs.open(srcPath); 99 IOUtils.copyBytes(in, System.out, 4096, false); //复制到标准输出流 100 } finally { 101 IOUtils.closeStream(in); 102 } 103 } 104 105 106 public static void main(String[] args) throws IOException { 107 //测试上传文件 108 //uploadFile(“D:\c.txt”, “/user/hadoop/test/“); 109 //测试创建文件 110 /byte[] contents = “hello world 世界你好\n”.getBytes(); 111 createFile(“/user/hadoop/test1/d.txt”,contents);/ 112 //测试重命名 113 //rename(“/user/hadoop/test/d.txt”, “/user/hadoop/test/dd.txt”); 114 //测试删除文件 115 //delete(“test/dd.txt”); //使用相对路径 116 //delete(“test1”); //删除目录 117 //测试新建目录 118 //mkdir(“test1”); 119 //测试读取文件 120 readFile(“test1/d.txt”); 121 } 122 123 }

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
hadoop集群环境的搭建
今天终于把hadoop集群环境给搭建起来了,能够运行单词统计的示例程序了。 集群信息如下: 主机名 Hadoop角色 Hadoop jps命令结果 Hadoop用户 Hadoop安装目录 master Master slaves NameNode DataNode JobTracker TaskTracker SecondaryNameNode 创建相同的用户的组名:hadoop。 安装hadoop-0.20.2时使用hadoop用户,并且hadoop的文件夹归属也是hadoop:hadoop /opt/hadoop slave1 slaves DataNode TaskTracker slave2 slaves DataNode TaskTracker 注:master即使master又是slave. 搭建步骤如下: 一、首先是搞好master 1、创建用户组 groupadd hadoop 添加一个组 useradd hadoop -g hadoop 添加用户 2、jdk的安装 这里安装的版本是jdk-7u9-linux-i586.tar.gz ,使用 tar -zsvfjdk-7...
- 下一篇
HDFS之FileStatus
任何文件系统的一个重要特性都是提供其目录结构浏览和检索它所存文件和目录相关信息的功能。FileStatus对象封装了文件系统中文件和目录的元数据,包括文件的长度、块大小、备份数、修改时间、所有者以及权限等信息。 FileStatus对象由FileSystem的getFileStatus()方法获得,调用该方法的时候要把文件的Path传进去。 例子:打印输出某个文件的所有信息 1 package com.hdfs; 2 3 import org.apache.hadoop.conf.Configuration; 4 import org.apache.hadoop.fs.FSDataInputStream; 5 import org.apache.hadoop.fs.FSDataOutputStream; 6 import org.apache.hadoop.fs.FileStatus; 7 import org.apache.hadoop.fs.FileSystem; 8 import org.apache.hadoop.fs.FileUtil; 9 import org.apac...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- CentOS8安装MyCat,轻松搞定数据库的读写分离、垂直分库、水平分库
- CentOS7编译安装Gcc9.2.0,解决mysql等软件编译问题
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- CentOS7,8上快速安装Gitea,搭建Git服务器
- CentOS7编译安装Cmake3.16.3,解决mysql等软件编译问题
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- SpringBoot2全家桶,快速入门学习开发网站教程
- Jdk安装(Linux,MacOS,Windows),包含三大操作系统的最全安装
- MySQL8.0.19开启GTID主从同步CentOS8
- CentOS8编译安装MySQL8.0.19