hadoop单机安装配置



1.安装jdk
在java官网
yum 安装
  1. yum install java-1.7.0-openjdk* -y  


2.安装hadoop
修改ect的配置文件
yarn-site.xml
<!--告诉NodeManager获取数据的方式是shuffle-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!--指定Yarn的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>
mapred-site.xml
<!--告诉Hadoop以后MR运行在yarn上-->
<property>
<name>mapreduce.frameword.name</name>
<value>yarn</value>
</property>
hdfs-site.xml
<!--指定HDFS的保存数据副本的数量-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
core-site.xml
<configuration>
<!--指定HDFS的NameNode地址-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<!--用来指定Hadoop用来运行时产生文件的存放目录-->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop-2.8.0/tmp</value>
</property>
</configuration>
hadoop-env.sh
修改javahome
# The java implementation to use.
export JAVA_HOME=/lib/jvm/jre-1.8.0
3.添加hadoop的环境变量
export JAVA_HOME=/lib/jvm/jre-1.8.0
export HADOOP_HOME=/opt/hadoop-2.8.0
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

环境变量直接在 /etc/profile 最下面添加上就好了,记得要把路径改为你自己的路径哦,修改完路径要执行 source /etc/profile 来使环境变量生效
4.初始化HDFS
hadoop namenode -format(过时)
hdfs namenode -format(现在) 格式化一次即可。
5.启动hadoop
cd sbin/
./start-all.sh
jps 可以查看正在运行的java 进程
6.为了免密码登录要配置ssh
#生成ssh免登陆密钥
#进入到我的home目录
cd ~/.ssh
ssh-keygen -t rsa (四个回车)
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
将公钥拷贝到要免登陆的机器上
ssh-copy-id localhost
7.datanode 未启动
多次格式化以后,会导致namenode的uuid和datanode的uuid不一致,所以无法启动datanode
推荐做法。该问题可以再log日志下看到报错
1.关闭服务
2.删除tmp文件夹
3.格式化
4.重启服务




查看HDFS的网址:localhost:50070




猜你喜欢

转载自blog.csdn.net/a511310132/article/details/76141836
今日推荐