Hadoop配置JobHistory

配置jobhistory

vi mapred-site.xml

添加如下代码

  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>hadoop100:10020</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>hadoop100:19888</value>
   </property>

启动jobhistory

sbin/mr-jobhistory-daemon.sh start historyserver

关闭的话就是改成 stop

jps看一下是否启动,看到JobHistory进程那就算成功了
在这里插入图片描述
成功之后,我们测试一下

先在HDFS上创建一个 test文件夹

hdfs dfs -mkdir /test

上传README.txt
在这里插入图片描述

hdfs dfs -put 路径/README.txt /test

去50070上看一下是否传上去了
在这里插入图片描述
成功之后,回来执行woutcount示例

hadoop jar share/hadoop/mapreduce2/hadoop-mapreduce-examples-2.6.0-cdh5.14.2.jar wordcount /test/README.txt /wcOutput

再回去看一下HDFS(端口号:50070)
在这里插入图片描述
再看一下Yarn(端口号:8088)
在这里插入图片描述
最后再看一下JobHistory(端口号:19888)
在这里插入图片描述
在JobHistory中我们可以看到每次提交的任务(Job),所有的Job记录都会在这里看到

猜你喜欢

转载自blog.csdn.net/qq_43288259/article/details/114981867