1. scala的版本选择. 请先到spark安装目录下 lib中查看此版本spark支持的scala版本.
从上图可知,我的spark 2.0 的scala版本为 2.11.8.
2。 到idea中创建项目,并设定当前的idea的版本.
如果不是这个版本,可以在线通过idea的sbt自动下载一下,但请注意,这个下载会很慢,可以配置一下sbt的仓库位置( sbt的插件其实就是一个包管理工具,例如 java之maven、graddle 或者是 python 之 pip等).
mac下的配置方法:
在~/.sbt
目录下新建repositories文件,并写入一下内容:
[repositories]
local
huaweicloud-maven: https://repo.huaweicloud.com/repository/maven/
maven-central: https://repo1.maven.org/maven2/
sbt-plugin-repo: https://repo.scala-sbt.org/scalasbt/sbt-plugin-releases, [organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext]