Spark採坑系列(三)Spark操作Hive的坑

跟着教學試着用Idea編程,實現Spark查詢Hive中的表。結果上來就涼了。

搗鼓好久都不行,在網上查有說將hive-site.xml放到resource目錄就行,還有什麼hadoop針對windows用戶的權限問題,結果都是扯淡。

其實問題還是處在代碼上,直接附上代碼了,原因下載註釋裏

Spark Hive操作

package sparkSql



import org.apache.spark.sql.SparkSession



/**

  * Created with IntelliJ IDEA.

  */

object SparkHiveSQL {

  def main(args: Array[String]): Unit = {

    //想要通過Spark操作hive SparkSession必須要調用enableHiveSupport(),否則無法查詢到Hive

    val spark = SparkSession

      .builder()

      .appName("Spark Hive")

      .master("spark://192.168.194.131:7077")

      .enableHiveSupport()

      .getOrCreate()



    val df1 = spark.sql("select * from default.src")

    df1.show()

  }

}

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章