【大數據學習02】安裝Hadoop

  1. 配置JDK

    將jdk解壓到/usr/local/java/
    tar -zxvf jdk-8u211-linux-x64.tar.gz  -C /usr/local/java/
    vim /etc/profile
    export JAVA_HOME=/usr/local/java/jdk1.8.0_211
    export PATH=$PATH:$JAVA_HOME/bin
    export CLASSPATH=.:$JAVA_HOME/lib
    
  2. 解壓hadoop安裝包

    mkdir /use/local/apps
    tar -zxvf hadoop-2.7.7.tar.gz -C /usr/local/apps
    
  3. 查看版本

    hadoop version
    
  4. 修改配置文件

    cd /usr/local/apps/hadoop-2.7.7/etc/hadoop/
    vim hadoop-env.sh
    

在這裏插入圖片描述

	vim /etc/profile
	export HADOOP_HOME=/usr/local/apps/hadoop-2.7.7
	export PATH=$PATH:$HADOOP_HOME/bin
  1. 修改配置文件 namenode

    vim  /usr/local/apps/hadoop-2.7.7/etc/hadoop/core-site.xml 
    
    <configuration>
     <property>
      <name>fs.defaultFS</name>
      <value>hdfs://dtinone101:8020</value>
     </property>
     <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/local/apps/hadoop-2.7.7/data</value>
     </property>
    </configuration>
    
  2. 編輯 /etc/hosts

    192.168.247.101 dtinone101
    
  3. 初始化namenode

    cd /usr/local/apps/hadoop-2.7.7
    hadoop namenode -format
    
    //初始化失敗時,查看DNS解析是否有問題
    
  4. 啓動namenode

    cd /usr/local/apps/hadoop-2.7.7/sbin/
     ./hadoop-daemon.sh start namenode
    
    //打印starting namenode, logging to /usr/local/apps/hadoop-2.7.7/logs/hadoop-root-namenode-dtinone101.out 日誌文件輸出地址
    
  5. jps //查看是否有NameNode進程
    //kill -9 進程號 殺死進程

  6. //8020端口是namenode 和 datanode通信端口 RPC端口

  7. 關閉防火牆

service iptables stop //臨時,即時生效
chkconfig iptables off //永久,重啓生效
  1. 啓動datanode
//切換到sbin
cd /usr/local/apps/hadoop-2.7.7/sbin/
./hadoop-daemon.sh start datanode

//打印starting datanode, logging to /usr/local/apps/hadoop-2.7.7/logs/hadoop-root-datanode-dtinone101.out日誌文件輸出地址
  1. 查看集羣ID
cd /data/dfs/data/current/
cat VERSION
clusterID=CID-f9557853-8850-498b-91f9-65c8be78c1b0 //集羣ID
  1. SSH配置免密
    羣啓是RPC 發送htp請求 來啓動的
    所以要設置免密。
    ssh-keygen //回車
    在這裏插入圖片描述
    ssh-copy-id dtinone101
    ssh-copy-id -i /root/.ssh/id_rsa.pub [email protected]
    ssh-copy-id -i /root/.ssh/id_rsa.pub [email protected]
    //前提以有兩臺datanode服務器
    //輸入密碼 配置完成

  2. 配置slaves(指定Datanode的節點)

cd /usr/local/apps/hadoop-2.7.7/etc/hadoop/
vim slaves
將localhost修改爲dtinone101
  1. 配置secondarynamenode
vim ${HADOOP_HOME}/etc/hdfs-site.xml

<property>
   <name>dfs.namenode.secondary.http-address</name>
   <value>dtinone101:50090</value>
  </property>
  1. 全啓
    進入sbin目錄
 ./start-dfs.sh

jps檢查是否啓動namenode datanode secondarynamenode
在這裏插入圖片描述
18. 遠程訪問web客戶端
http://dtinone101:50070

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章