spark開發環境——PyCharm開發python的spark項目

1.點擊運行-編輯結構


2.在python的環境變量中新加一個PYTHONPATH

在其值中加入本地的spark中的python文件夾

D:\spark\spark-2.2.0-bin-hadoop2.6\python

以及本地的spark中的python文件夾中的lib下的py4j-0.10.4-src.zip    

D:\spark\spark-2.2.0-bin-hadoop2.6\python\lib\py4j-0.10.4-src.zip




3.項目關聯py4j-some-version.zip和pyspark.zip兩個zip包

打開文件-設置-項目-ProjecStructure,選擇Add Content Root,選中spark安裝目錄下的python中的lib中的兩個zip包




發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章