1、問題描述
自從spark2.0.0發佈之後,每次啓動hive的時候,總會發現一個小問題,啓動 hive --service metastore的時候,會報一個小BUG: 無法訪問<PathToSpark>/lib/spark-assembly-*.jar
分析其源碼架構,發現主要原因是:在/<PathToHive>/bin/hive文件中,有這樣的命令:加載spark中相關的JAR包。
但是spark升級到spark2以後,原有lib目錄下的大JAR包被分散成多個小JAR包,原來的spark-assembly-*.jar已經不存在,所以hive沒有辦法找到這個JAR包。
2、解決方法:
修改/<PathToHive>/bin/hive文件,將加載原來的lib/spark-assembly-*.jar`替換成jars/*.jar,就不會出現這樣的問題。
3、最後驗證下: