解压缩远程zip文件并将其解压缩到java中的hdfs

时间:2017-09-09 03:08:29

标签: java hadoop zipinputstream

我正在做的只是解压缩并上传一个zip文件,该文件可以从网站下载到hdfs。 这是代码:

String src="http://corpus.byu.edu/wikitext-samples/text.zip";
String dst = "hdfs://cshadoop1/user/hxy162130/assignment1";
InputStream a = new URL(src).openStream();
System.out.println(a == null);
ZipInputStream in = new ZipInputStream(a);
System.out.println(in == null);
ZipEntry zE = in.getNextEntry();        
System.out.println(zE == null);

如您所见,我使用openStream方法将url更改为inputstream,然后使用inputstream作为ZipInputStream的参数。最后,我从zipinputStream获取一个条目。 但问题是getNextEntry方法返回一个空值,这意味着我的代码输出为false,false,true。我无法找到问题所在。

1 个答案:

答案 0 :(得分:0)

http://corpus.byu.edu/wikitext-samples/text.zip的HTTP请求会导致301 Moved Permanently提供新的Location: https://corpus.byu.edu/wikitext-samples/text.zip。因此,使用此ZIP不再提供URL资源。

要遵循您可以执行的重定向:

import java.net.URL;
import java.net.URLConnection;
import java.io.InputStream;
import java.util.zip.*;


class ReadZipInputStream {

 public static void main(String[] args) throws Exception {

  String src="http://corpus.byu.edu/wikitext-samples/text.zip";
  //301 Moved Permanently: Location:https://corpus.byu.edu/wikitext-samples/text.zip

  URL url = new URL(src);
  URLConnection connection = url.openConnection();
  String redirect = connection.getHeaderField("Location");
  if (redirect != null){
   connection = new URL(redirect).openConnection();
  }

  InputStream a = connection.getInputStream();
  System.out.println(a);

  ZipInputStream in = new ZipInputStream(a);
  System.out.println(in);

  ZipEntry zE = in.getNextEntry();        
  System.out.println(zE);

 }
}
相关问题