在idea中开发spark Streaming 整合 kafka要注意的版本问题

1. scala的版本选择.  请先到spark安装目录下  lib中查看此版本spark支持的scala版本. 

从上图可知,我的spark 2.0 的scala版本为 2.11.8. 

2。 到idea中创建项目,并设定当前的idea的版本. 

如果不是这个版本,可以在线通过idea的sbt自动下载一下,但请注意,这个下载会很慢,可以配置一下sbt的仓库位置( sbt的插件其实就是一个包管理工具,例如 java之maven、graddle 或者是 python 之 pip等). 

mac下的配置方法: 

~/.sbt目录下新建repositories文件,并写入一下内容:

[repositories]
local
huaweicloud-maven: https://repo.huaweicloud.com/repository/maven/
maven-central: https://repo1.maven.org/maven2/
sbt-plugin-repo: https://repo.scala-sbt.org/scalasbt/sbt-plugin-releases, [organization]/[module]/(scala_[scalaVersion]/)(sbt_[sbtVersion]/)[revision]/[type]s/[artifact](-[classifier]).[ext]

猜你喜欢

转载自blog.csdn.net/zhangyingchengqi/article/details/106560564
今日推荐