Hive在spark2.0.0啓動時無法訪問spark-assembly-*.jar的解決辦法

1、問題描述

       自從spark2.0.0發佈之後,每次啓動hive的時候,總會發現一個小問題,啓動 hive --service metastore的時候,會報一個小BUG: 無法訪問<PathToSpark>/lib/spark-assembly-*.jar

分析其源碼架構,發現主要原因是:在/<PathToHive>/bin/hive文件中,有這樣的命令:加載spark中相關的JAR包。

 

但是spark升級到spark2以後,原有lib目錄下的大JAR包被分散成多個小JAR包,原來的spark-assembly-*.jar已經不存在,所以hive沒有辦法找到這個JAR包。


2、解決方法:

      修改/<PathToHive>/bin/hive文件,將加載原來的lib/spark-assembly-*.jar`替換成jars/*.jar,就不會出現這樣的問題。

 


3、最後驗證下:


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章