Hadoop -spark

1.安装spark

1.1从git或者官网下载安装包

1.2解压安装包

tar -zxvf spark-2.2.0-bin-hadoop2.7.tgz

注意:这里我是直接放在hadopp用户下解压的。

1.3修改配置文件

第一个文件: log4j.properties

cp log4j.properties.templatelog4j.properties

vi log4j.properties

添加以下内容

log4j.appender.file=org.apache.log4j.RollingFileAppender

log4j.appender.file.MaxFileSize=20000KB

log4j.appender.file.MaxBackupIndex=100

log4j.appender.file.File=/app/hadoop/spark/logs/spark.log

log4j.appender.file.layout=org.apache.log4j.PatternLayout

log4j.appender.file.layout.ConversionPattern=%n%-d{yyyy-MM-ddHH\:mm\:ss}%n[%p]-[Thread\: %t]-[%C.%M()]\: %m%n

第二个文件:spark-env.sh

cp spark-env.sh.template spark-env.sh

vi spark-env.sh

添加以下内容

exportHADOOP_CONF_DIR=/home/hadoop/hadoop/etc/hadoop

exportJAVA_HOME=/home/ideal/jdk/jdk1.8.0_60

export SPARK_WORKER_MEMORY=4g

第三个文件:spark-defaults.conf

cp spark-defaults.conf.templatespark-defaults.conf

不用修改

第四个文件:slaves

cp slaves.template slaves

添加以下内容

mqtt-1

mqtt-3

注意:这里是配置spark的节点。

第五个文件:hive-site.xml

这个文件直接从hadoop的配置文件复制过来就ok

vi hive-site.xml

cp/home/haoop/hadoop/etc/hadoop/hive-site.xml /home/hadoop/spark/conf

不用修改内容

第六个文件:hdfs-site.xml

这个文件直接从hadoop的配置文件复制过来就ok

cp/home/haoop/hadoop/etc/hadoop/hdfs-site.xml /home/hadoop/spark/conf

不用修改内容

以上六个文件修改完毕后,把整个spark目录copy给节点服务器。

scp -r spark 用户名@主机名:/home/hadoop/spark

2.启动spark

2.1 启动hive

启动metastore

nohup ./bin/hive --service metastore

2.2启动hiveserver2

nohup ./bin/hiveserver2>logs/start_hiveserver2.log 2>&1 &

2.3 启动spark

./sbin/start-all.sh

 

3.验证spark

浏览器输入:服务器地址:端口号

 

成功!


猜你喜欢

转载自blog.csdn.net/qq_38669394/article/details/80271082