우분투 하둡-2.7.7에 장착

1. 설치 오픈 VM-도구

sudo는 오픈 VM-도구를 설치 apt-get을

2. 설치 오픈 JDK를

sudo는은 오픈 JDK-8-JDK를 설치 apt-get을

3. 설치 구성 SSH

apt-get을 설치는 openssh-서버

4. 초기 로그인시는, 사용자의 현재 디렉토리에있는 가정해야합니다 스푸핑의 폴더를 폴더를 입력 : CD를 스푸핑

SSH-Keygen은 -t RSA

입력 방법 C를

다운로드 hadoop2.7.7의 압축을 풀고 이름 하둡 에 디렉토리, / usr / 지방 낮은 ( 주 기관 )

sudo는 MV ~ / 하둡-2.7.7 / usr / 지방 / 하둡

6. 디렉토리의 소유자 수정 / usr / 지방 / 아래 하둡 폴더를

sudo는 대한 Chown -R 현재 사용자 이름 / usr / 지방 / 하둡

 

7. 환경 변수

(1)는 sudo의 gedit ~ / .bashrc에 입사

# ~ / .bashrc에

수출 JAVA_HOME =은 / usr / lib 디렉토리 / JVM을 / 자바-8-오픈 JDK-AMD64

export HADOOP_HOME=/usr/local/hadoop

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

export HADOOP_MAPRED_HOME=$HADOOP_HOME

export HADOOP_COMMON_HOME=$HADOOP_HOME

export HADOOP_HDFS_HOME=$HADOOP_HOME

export HADOOP_YARN_HOME=$HADOOP_HOME

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH

#打包hadoop程序需要的环境变量

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH

#让环境变量生效

source ~/.bashrc

(2) 进入 /usr/local/hadoop/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

(3) 进入 /usr/local/hadoop/etc/hadoop/core-site.xml

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

(4) 进入 /usr/local/hadoop/etc/hadoop/hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>

</property>

</configuration>

(5) 进入 /usr/local/hadoop/etc/hadoop/mapred-site.xmlmapred-site.xml.template重命名)

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

(6) 进入 /usr/local/hadoop/etc/hadoop/yarn-site.xml

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

</configuration>

 

8.格式化hdfs文件系统

hdfs namenode -format

 

9.启动hadoop

start-all.sh start-dfs.sh start-yarn.sh

10.浏览器搜索

추천

출처www.cnblogs.com/wxd-ld/p/11116066.html