1.查看目錄下內容
hadoop fs –ls /
hadoop fs -ls /da
注:可正則匹配
2.將本地文件夾上傳至HDFS
hadoop fs -put ~/test/data.txt /
3.HDFS上創建目錄
hadoop fs -mkdir /data
4.創建空文件
hadoop fs -touchz /data/data1.txt
5.瀏覽文件
hadoop fs -cat /data/data1.txt
6.文件重命名
hadoop fs -mv /data/data1.txt /data/data2.txt
7.將HDFS上文件拷貝至本地
hadoop fs -get /data/data2.txt ~
8.刪除文件
hadoop fs -rm /data/data2.txt
9.刪除文件夾
hadoop fs -rmr /data
10.將HDFS指定目錄打包並down至本地
hadoop dfs –getmerge /user /home/t
11.將正在運行的Hadoop任務殺掉
hadoop job –kill [job-id]
12.複製文件
hadoop fs -cp /data.txt /data1.txt
13.HDFS基本信息統計
hadoop dfsadmin -report
14.離開/進入安全模式
hadoop dfsadmin -safemode leave
hadoop dfsadmin -safemode enter
15.啓動所有進程
start-all.sh
16.啓動HDFS/YARN
start-dfs.sh
start-yarn.sh
17.HDFS文件塊重新均勻分佈
start-balancer.sh