Hadoop學習--通過配置文件修改文件副本數塊大小--day04

import java.io.ByteArrayOutputStream;

import java.io.FileInputStream;

import java.io.FileOutputStream;

import java.io.InputStream;

import java.net.URL;


import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FSDataInputStream;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

import org.junit.Test;


public class replication {


/**

* 通過API實現自定義文件的副本數

* 最後測試的時候修改集羣hdfs.site.xml中dfs.namenode.fs-limits.min-block-size的值爲10K

* 注意修改集羣的配置文件後手動的刷新nodes的命令並不能讓文件生效,需要重新啓動集羣

* 最後通過webui hadoop01:50070來查看

*/

@Test

public void customReplicationNum() throws Exception {

//創建configuration對象,有個默認的加載順序,先從core-default.xml,再到src目錄中的文件,這裏

//我們給定了

        Configuration conf = new Configuration();

        //修改當前文件的副本數量

        conf.set("dfs.replication", "4");

        //修改當前文件的塊大小

        conf.set("dfs.blocksize", "20480");

        //修改namenode的blcoksize的下限,需要修改集羣的配置,這裏設置是有問題的

//        conf.set("dfs.namenode.fs-limits.min-block-size", "1024*10");

//通過conf的configuration對象創建了該分佈式文件系統fs,默認如果不指定文件的話爲本地文件系統

        FileSystem fs = FileSystem.get(conf);

        //定義一個URL的字符串

        String file = "hdfs://hadoop01:9000/user/hadoop/data2/kala-copy.jpg";

        //通過一個URL的字符串構建一個path對象

        Path path = new Path(file);

        FSDataOutputStream out = fs.create(path);

        IOUtils.copyBytes(new FileInputStream("E:/zhaopian.jpg"), out, 1024);

        out.close();

   }

}


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章