Ambari2.7.3-Spark2.3.2提交任务

Master URL Meaning
local 在本地运行,只有一个工作进程,无并行计算能力
local[K] 在本地运行,有 K 个工作进程,通常设置 K 为机器的CPU 核心数量
local[*] 在本地运行,工作进程数量等于机器的 CPU 核心数量
Spark://HOST:PORT 以 Standalone 模式运行,这是 Spark 自身提供的集群运行模式,默认端口号: 7077
mesos://HOST:PORT 在 Mesos 集群上运行,Driver 进程和 Worker 进程运行在 Mesos 集群上,部署模式必须使用固定值:–deploy-mode cluster
yarn-client 在 Yarn 集群上运行,Driver 进程在本地, Work 进程在 Yarn 集群上, 部署模式必须使用固定值:–deploy-modeclient。Yarn 集群地址必须在HADOOP_CONF_DIRorYARN_CONF_DIR 变量里定义
yarn-cluster效率比yarn-client高 在 Yarn 集群上运行,Driver 进程在 Yarn 集群上,Work 进程也在 Yarn 集群上,部署模式必须使用固定值:–deploy-mode cluster。Yarn 集群地址必须在HADOOP_CONF_DIRorYARN_CONF_DIR 变量里定义

1.本地运行模式 (单机)

spark-shell --master local
在这里插入图片描述

spark-submit \
--class org.apache.spark.examples.SparkPi \
--master local \
/usr/hdp/3.1.0.0-78/spark2/examples/jars/spark-examples_2.11-2.3.2.3.1.0.0-78.jar \
100
在这里插入图片描述

2.spark standalone模式【必须启动master和worker】

spark-shell --master spark://master:7077

提交任务:
spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://masterhd.bigdata:7077 \
--executor-memory 2G \ # 指定每个worker可用内存为2G
--total-executor-cores 2 \ # 指定整个集群使用的cup核数为2个
/usr/hdp/3.1.0.0-78/spark2/examples/jars/spark-examples_2.11-2.3.2.3.1.0.0-78.jar \
100

3.spark on yarn-client模式【一定别启动master和worker】

Ambari集群下,默认启动spark-shell是yarn模式
spark-shell
在这里插入图片描述
spark-shell --master yarn-client
在这里插入图片描述

提交任务:
spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn-client \
/usr/hdp/3.1.0.0-78/spark2/examples/jars/spark-examples_2.11-2.3.2.3.1.0.0-78.jar \
100
在这里插入图片描述

4.spark on yarn-cluster模式【一定别启动master和worker】

提交任务
spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn-cluster \
/usr/hdp/3.1.0.0-78/spark2/examples/jars/spark-examples_2.11-2.3.2.3.1.0.0-78.jar \
100
在这里插入图片描述

发布了153 篇原创文章 · 获赞 122 · 访问量 9万+

猜你喜欢

转载自blog.csdn.net/Happy_Sunshine_Boy/article/details/104985376