【hadoop2.6.0】利用JAVA API 实现数据上传

java

  原本的目的是想模拟一个流的上传过程,就是一边生成数据,一边存储数据,因为能用上HADOOP通常情况下原本数据的大小就大到本地硬盘存不下。这一般是通过把数据先一部分一部分的缓冲到本地的某个文件夹下,hdfs把缓冲文件夹中的文件一点一点上传,并把上传了的缓冲文件删除。

  我这里没有实现数据的分次生成,而是直接用了一个文件,上传的时候模拟缓存一点一点上传。

代码如下:保存为Read2.java

import java.io.File;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FSDataInputStream;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileStatus;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

public class Read2{

public static void main(String [] args)throws Exception{

Configuration conf = new Configuration();

FileSystem hdfs = FileSystem.get(conf);

FileSystem local=FileSystem.getLocal(conf);

Path inputDir = new Path("/home/data/"); //获取本地待被上传的文件 会把该文件夹下的内容都上传

Path hdfsFile = new Path("/acceptFile/"); //获取hdfs上需要获取文件的地址

hdfs.mkdirs(hdfsFile); //在hdfs上新建该文件夹

FileStatus[] inputFiles=local.listStatus(inputDir); //获取本地待上传文件夹的信息

FSDataOutputStream out;

for(int i = 0; i < inputFiles.length; i++) //i循环本地文件夹内的文件个数

{

System.out.println(inputFiles[i].getPath().getName());

FSDataInputStream in = local.open(inputFiles[i].getPath()); //获取输入流

out = hdfs.create(new Path("/acceptFile/"+inputFiles[i].getPath().getName())); //输出流位置获取

byte buffer[] = new byte[256];

int bytesRead = 0;

while((bytesRead = in.read(buffer))>0){ //每次读取buffer大小的部分

out.write(buffer,0,bytesRead); //每次写入buffer中bytesRead大小的部分

}

out.close();

in.close();

}

}

}

代码的运行经过前面的例子已经很熟悉了

bin/hadoop com.sun.tools.javac.Main Read2.java

jar cf read2.jar Read2*.class

bin/hadoop jar read2.jar Read2

结果:

我本地文件夹下有一个文件,成功的被上传了

以上是 【hadoop2.6.0】利用JAVA API 实现数据上传 的全部内容, 来源链接: utcz.com/z/389835.html

回到顶部