Unrecognized VM option ‘‘

问题来源:

        进行 Spark 编程实践时,需要用到 sbt 工具进行编译打包,而 Spark 中没有自带 sbt,故需要单独安装,可以到官网 http://www.scala-sbt.org 中下载相应版本即可。当下载并解压完成后需要对 sbt 进行配置,首先需要将 sbt 安装目录下的 bin/sbt-launch.jar 拷贝一份到 sbt 安装目录下,然后在安装目录下编辑文件 sbt 创建一个 Shell 脚本,用于启动 sbt,在安装目录下(本机为 /usr/local/sbt)执行如下指令

vim /usr/local/sbt/sbt

        接着输入如下配置内容:

#!/bin/bash
SBT_OPTS="-Xms512M -Xmx1536M -Xss1M -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=256M"
java $SBT_OPTS -jar dirname $0/sbt-launch.jar “$@”

        保存退出后,执行如下命令为该脚本增加可执行权限:

chmod u+x /usr/local/sbt/sbt

         接着通过如下命令查看 sbt 版本信息:

cd /usr/local/sbt

./sbt sbtVersion

         发现报了如题所述的错误

解决方法:

        这里主要有两个错误:第一个是配置内容第三行的 XX:后不可手动加换行,即除了编译器自动换行外,所有配置内容都不可手动加换行符;第二个是配置内容中加粗标红部分应该换成你本机的 sbt 安装目录,比如我本机的 sbt 安装目录为 /usr/local/sbt,则把这个路径替换掉加粗标红部分内容即可。

猜你喜欢

转载自blog.csdn.net/m0_59705760/article/details/125266971