Spark2.0以後都是SparkSession作爲程序入口的,這樣的好處是便於使用Dataset<Row>的接口。按照日常需求,將其大致分爲三類:
1.讀接口,即取數據
2.寫接口,即存數據
3.操作接口,即計算數據
這三類大致將Spark使用頻率很高一些方法整理到一起,可以在使用的時候方便查閱。
-----end-----
Spark2.0以後都是SparkSession作爲程序入口的,這樣的好處是便於使用Dataset<Row>的接口。按照日常需求,將其大致分爲三類:
1.讀接口,即取數據
2.寫接口,即存數據
3.操作接口,即計算數據
這三類大致將Spark使用頻率很高一些方法整理到一起,可以在使用的時候方便查閱。
-----end-----
kubectl config get-contexts kubectl config use-context <context-name> kubectl config current-context