注:如果只是进行上述的操作控制台输出会抛异常(本操作的执行地址是在虚拟机上安装hadoop),因为本地并未安装hadoop,所以要解决这一问题需要对本地进行配置
TestHDFS类:
package cn.kgc.kb09.hdfs; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataInputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import java.io.FileOutputStream; import java.io.InputStream; import java.net.URI; /** * @Author Daniu_Ben * @Date 2020/9/4 * @Description */ public class TestHDFS { public static void main(String[] args) throws Exception{ // System.setProperty("hadoop.home.dir", "E:\\softs\\hadoop-2.6.0-cdh5.14.2"); Configuration conf = new Configuration(); conf.set("fs.defaultFS","hdfs://192.168.126.101:9000"); // FileSystem fs = FileSystem.get(conf); //这与下一条语句只能存在一个,由于未指定用户所以在执行上传文件是没有权限,所以使用下一条语句进行用户指定 FileSystem fs = FileSystem.get(new URI("hdfs://192.168.126.101:9000"),new Configuration(),"root"); // InputStream is = fs.open(new Path(args[0])); // FileOutputStream fos = new FileOutputStream(args[1]); // fs.copyToLocalFile(new Path(args[0]),new Path(args[1])); // fs.copyFromLocalFile(new Path(args[1]),new Path(args[0])); // fs.mkdirs(new Path("/hello/nihoa/feichanghao")); fs.deleteOnExit(new Path("/hello")); // int tmp; // while((tmp = is.read()) != -1){ System.out.print((char)tmp); // fos.write(tmp); // } // fos.close(); // is.close(); } }语句中的args[0]和args[1]指的是传入的参数,参数设置如图所示: 所需的资料下载:链接:https://pan.baidu.com/s/1bn_Cu2Kr1CwP3y-zrQzfBw 提取码:vtbv
