電商用戶行爲分析大數據平臺相關係列3-HIVE安裝

1 HIVE安裝

1.1、下載、解壓

1.2、配置環境變量(/etc/profile或者~/.bashrc),環境變量生效

1.3、安裝Mysql

  • 在spark1安裝mysql
  • 下載mysql-connector-java-..*.jar,並拷貝到$HIVE_HOME/lib中
  • 在mysql創建hive元數據庫,並創建hive賬號,然後授權。
create database if not exists hive_metadata;
grant all privileges on hive_metadata.* to 'hive'@'%' identified by 'hive';
grant all privileges on hive_metadata.* to 'hive'@'localhost' identified by 'hive';
grant all privileges on hive_metadata.* to 'hive'@'spark1' identified by 'hive';
flush privileges;
use hive_metadata;

1.4、配置hive-site.xml,如果不存在,則拷貝 hive-default.xml.template

<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://spark1:3306/hive_metadata?createDatabaseIfNotExist=true</value>
</property>
<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
</property>
<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hive</value>
</property>
<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>hive</value>
</property>

1.5、配置hive-env.sh和hive-config.sh

mv $HIVE_HOME/conf/hive-env.sh.template $HIVE_HOME/conf/hive-env.sh

vi $HIVE_HOME/bin/hive-config.sh
export JAVA_HOME=/usr/java/latest
export HIVE_HOME=/usr/local/hive
export HADOOP_HOME=/usr/local/hadoop

1.6、驗證

輸入hive命令,可以進入hive命令行

註釋:本文中所有$HIVE_HOME表示本人自己在spark1的HIVE安裝路徑

該系列筆記:
1. 電商用戶行爲分析大數據平臺相關係列1-環境介紹
2. 電商用戶行爲分析大數據平臺相關係列2-HADOOP環境搭建
2. 電商用戶行爲分析大數據平臺相關係列3-HIVE安裝
3. 電商用戶行爲分析大數據平臺相關係列4-ZOOKEEPER安裝
4. 電商用戶行爲分析大數據平臺相關係列5-KAFKA安裝
5. 電商用戶行爲分析大數據平臺相關係列6-flume安裝
6. 電商用戶行爲分析大數據平臺相關係列7-spark安裝

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章