window下安装Apache Spark

1、下载安装scala,安装成功后在命令行下输入scala -version验证:

2、下载安装sbt工具:

http://www.scala-sbt.org/download.html

我直接下载的的是msi文件,安装后会默认把执行路径加入到环境变量里面,也可以下载zip文件,解压后手动设置环境变量。


3、下载Apache Spark,并解压,命令行切换到解压的目录,然后输入sbt package或sbt assembly:


4、编译的过程如果遇到git相关的错误,需要在本地安装git环境,然后将git加入到path中:

C:\Program Files (x86)\Git\bin;

C:\Program Files (x86)\Git\libexec\git-core;


5、编译过程如果遇到内存溢出的错误:

Java.lang.OutOfMemoryError: GC Overhead Limit Exceeded

需要设置环境变量:

SBT_OPTS

-Xmx2g -XX:MaxPermSize=512M


6、编译的过程相当漫长,大概花了一个多小时,成功后:


7、启动spark-shell:



猜你喜欢

转载自blog.csdn.net/lxpblsc/article/details/42492495
今日推荐