IDEA配置scala、spark环境

1、安装IDEA后,如何配置scala环境?

首先打开IDEA–>plugins设置–>install Plugin from disk–>把idea-scala插件的压缩包导入,重启idea即可
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2、IDEA连接hadoop怎么做?

直接把虚拟机下的hadoop打包传出来,解压到windows下,如果spark直接读hdfs文件的话,会报“Could not locate executable null\bin\winutils.exe in the Hadoop binaries.”的错,是因为缺少hadoop.dll和winutils.exe文件。在网上找到对应版本的文件,然后把hadoop.dll放到“C:\Windows\System32”目录下,把winutils.exe放到“D:\software\hadoop260\bin”目录下

猜你喜欢

转载自blog.csdn.net/xiaoxaoyu/article/details/114451264