Spark Shell及Spark2.2和Spark1.6的对比

2019-12-12  09:37:43

Spark Shell

Spark-shell是Spark自带的交互式Shell程序,方便用户进行交互式编程,可以在命令下编写Scala程序执行Spark

Spark-shell多用于测试 Spark-Shell启动有两种模式 local模式和Cluster模式

Local模式:

ps: 必须进入到Spark安装目录中bin目录下
spark-shell 
启动的就是本地模式,local模式仅在本机启动一个SparkSubmit进程,没有集群建立联系,虽然进程中有SparkSubmit但是不会被提交到集群

Cluster模式:

必须进入到Spark安装目录中bin目录下
spark-shell \
--master spark://hadoop01:7077 \
--executor-memory  512M \
--total-executor-cores 1
ps: --master必须有的一条命令  后面的两条是可以没有的

  

退出Shell:

1.使用 :quit  退出shell
2.使用 ctrl+c 退出shell  
ps:使用ctrl+c 退出shell 可能会出现 后台占用端口的情况
   查看监听端口  netstat -apn | grep 4040  只要有这个端口占用的进程就杀死

 

 Spark2.2shell和Spark1.6shell的对比

1)Spark2.2

 2)Spark1.6

 说明:Spark2.X版本shell中有两个内置对象

SparkContext  ——> 变量名:sc

SparkSession  ——>变量名:spark

SparkSession不能单独拿出来解释,2.x之后spark将SQLContext和HiveContext进行整合提供一种全新的创建方式SparkSession

Spark1.6版本shell中有两个内置对象

SparkContext  ——>变量名:sc

SQLContext  ——>变量名:sqlcontext

 

 

 

猜你喜欢

转载自www.cnblogs.com/yumengfei/p/12027506.html
今日推荐