安装local模式的spark

安装

1.上传Spark压缩包

在这里插入图片描述

2.解压缩Spark到/usr/local目录

sudo tar -zxvf spark-2.4.6-bin-hadoop2.7.tgz -C /usr/local
cd /usr/local/

在这里插入图片描述

3.重命名为spark,使用以下命令:

sudo mv /usr/local/spark-2.4.6-bin-hadoop2.7/ /usr/local/spark

4.授权当前用户hadoop拥有spark目录的所有者权限,使用以下命令:

sudo chown -R hadoop /usr/local/spark

在这里插入图片描述

5.编辑环境变量,使用以下命令:

sudo vim /home/hadoop/.bashrc

6.设置环境变量SPARK_HOME,并更新环境变量PATH,内容如下:

export SPARK_HOME=/usr/local/spark
export PATH=${
    
    SPARK_HOME}/bin:${
    
    SPARK_HOME}/sbin:$PATH

在这里插入图片描述

7.刷新环境变量,使用以下命令:

source /home/hadoop/.bashrc

测试

spark-submit \
--master local[5] \
/usr/local/spark/examples/src/main/python/pi.py 10

在这里插入图片描述

安装成功后,进入以下链接安装standalone模式

https://blog.csdn.net/weixin_45955039/article/details/123463253

猜你喜欢

转载自blog.csdn.net/weixin_45955039/article/details/123462781