1 HIVE安裝
1.1、下載、解壓
1.2、配置環境變量(/etc/profile或者~/.bashrc),環境變量生效
1.3、安裝Mysql
- 在spark1安裝mysql
- 下載mysql-connector-java-..*.jar,並拷貝到$HIVE_HOME/lib中
- 在mysql創建hive元數據庫,並創建hive賬號,然後授權。
create database if not exists hive_metadata;
grant all privileges on hive_metadata.* to 'hive'@'%' identified by 'hive';
grant all privileges on hive_metadata.* to 'hive'@'localhost' identified by 'hive';
grant all privileges on hive_metadata.* to 'hive'@'spark1' identified by 'hive';
flush privileges;
use hive_metadata;
1.4、配置hive-site.xml,如果不存在,則拷貝 hive-default.xml.template
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://spark1:3306/hive_metadata?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hive</value>
</property>
1.5、配置hive-env.sh和hive-config.sh
mv $HIVE_HOME/conf/hive-env.sh.template $HIVE_HOME/conf/hive-env.sh
vi $HIVE_HOME/bin/hive-config.sh
export JAVA_HOME=/usr/java/latest
export HIVE_HOME=/usr/local/hive
export HADOOP_HOME=/usr/local/hadoop
1.6、驗證
輸入hive命令,可以進入hive命令行
註釋:本文中所有$HIVE_HOME表示本人自己在spark1的HIVE安裝路徑
該系列筆記:
1. 電商用戶行爲分析大數據平臺相關係列1-環境介紹
2. 電商用戶行爲分析大數據平臺相關係列2-HADOOP環境搭建
2. 電商用戶行爲分析大數據平臺相關係列3-HIVE安裝
3. 電商用戶行爲分析大數據平臺相關係列4-ZOOKEEPER安裝
4. 電商用戶行爲分析大數據平臺相關係列5-KAFKA安裝
5. 電商用戶行爲分析大數據平臺相關係列6-flume安裝
6. 電商用戶行爲分析大數據平臺相關係列7-spark安裝