Spark Master 用Scala实现任务提交

话不多说,上demo~

test.txt文件里包含了hello world行,读者可自己修改测试、

val inputfile=“file:///home/wangyang/helloSpark.txt” //文件的绝对路径
val conf = new SparkConf().setAppName(“HelloWorld”).setMaster(“spark://IP地址:7077”) //提交的服务器地址
val sc = new SparkContext(conf)
val textfile = sc.textFile(inputfile)
//查询包含hello world的行
val lines = textfile.filter(line => line.contains(“helloworld”))
lines.foreach(println)

HDFS 文件系统

Hadoop之HDFS上测试创建目录、上传、下载文件

1、HDFS上创建目录
${HADOOP_HOME}/bin/hdfs dfs -mkdir /demo1
在这里插入图片描述
2、上传本地文件到HDFS上
${HADOOP_HOME}/bin/hdfs dfs -put ${HADOOP_HOME}/etc/hadoop/core-site.xml /demo1
在这里插入图片描述
3、上传本地文件到HDFS上
${HADOOP_HOME}/bin/hdfs dfs -cat /demo1/core-site.xml

4、从HDFS上下载文件到本地
${HADOOP_HOME}/bin/hdfs dfs -get /demo1/core-site.xml

IDEA 打成jar包
在这里插入图片描述
将jar上传至服务器下任意文件夹
在这里插入图片描述
将上面Java实现的单词计数打成jar包FirstSpark.jar,并且将jar包上传到Master节点,我是将jar包上传到/opt目录下。
我是以spark-submit的方式完成任务提交。
在这里插入图片描述

参考链接:https://www.cnblogs.com/xxbbtt/p/8143593.html
参考链接:https://www.cnblogs.com/zengxiaoliang/p/6508330.html

猜你喜欢

转载自blog.csdn.net/weixin_43127762/article/details/89066246