Pycharm配置Spark开发

前提:安装与远端服务器相同的Python版本,并将spark目录放置到本地

注意:要导入spark路径到系统环境变量

配置Pycharm

1.
1.png

2
2.png

本地测试结果:

3.png

远程服务器测试:

使用:spark-submit --master local[2] --name spark程序名  py文件名


问题:

有些小伙伴可能会和我一样在mac上遇到这种问题:

Python in worker has different version 3.6 than that in driver 3.7, PySpark cannot run with different minor versions


1.png

千万不要尝试让你删x x x文件的方法!!!只需要:

2.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 一直用的终端,不太方便,今天改到pycharm上,设置还是很简单的。 选中项目,修改配置中的环境变量 增加两项 S...
    weitong_z阅读 4,168评论 0 0
  • pyspark.sql模块 模块上下文 Spark SQL和DataFrames的重要类: pyspark.sql...
    mpro阅读 13,150评论 0 13
  • pyspark.sql module Module context Spark SQL和DataFrames中的重...
    盗梦者_56f2阅读 10,854评论 0 19
  • 有朋友问我,最近在听什么歌?新出的歌?额,我默默地看了一眼我的歌单,不错,果然都是90、00后们眼中的“新歌”——...
    无敌老超人阅读 2,415评论 0 2
  • 每天晚上睡觉都到11点半了,只是在那里看乱七八糟的东西,又不想早点睡。 这是什么循环呢?!
    三珊1016阅读 1,462评论 0 0