1. 설치 오픈 VM-도구
sudo는 오픈 VM-도구를 설치 apt-get을
2. 설치 오픈 JDK를
sudo는은 오픈 JDK-8-JDK를 설치 apt-get을
3. 설치 구성 SSH
apt-get을 설치는 openssh-서버
4. 초기 로그인시는, 사용자의 현재 디렉토리에있는 가정해야합니다 스푸핑의 폴더를 폴더를 입력 : CD를 스푸핑
SSH-Keygen은 -t RSA
입력 방법 C를
다운로드 hadoop2.7.7의 압축을 풀고 이름 하둡 에 디렉토리, / usr / 지방 낮은 ( 주 기관 )
sudo는 MV ~ / 하둡-2.7.7 / usr / 지방 / 하둡
6. 디렉토리의 소유자 수정 / usr / 지방 / 아래 하둡 폴더를
sudo는 대한 Chown -R 현재 사용자 이름 / usr / 지방 / 하둡
7. 환경 변수
(1)는 sudo의 gedit ~ / .bashrc에 입사
# ~ / .bashrc에
수출 JAVA_HOME =은 / usr / lib 디렉토리 / JVM을 / 자바-8-오픈 JDK-AMD64
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
#打包hadoop程序需要的环境变量
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
#让环境变量生效
source ~/.bashrc
(2) 进入 /usr/local/hadoop/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
(3) 进入 /usr/local/hadoop/etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
(4) 进入 /usr/local/hadoop/etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
</property>
</configuration>
(5) 进入 /usr/local/hadoop/etc/hadoop/mapred-site.xml(mapred-site.xml.template重命名)
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
(6) 进入 /usr/local/hadoop/etc/hadoop/yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
8.格式化hdfs文件系统
hdfs namenode -format
9.启动hadoop
start-all.sh 或start-dfs.sh start-yarn.sh
10.浏览器搜索