가상 머신에 구현 된 의사 분산 하둡의 1.x의 버전을 설정

면책 조항 :이 문서는 블로거 원본입니다, 추적 에 의해-SA의 CC 4.0 저작권 계약, 복제, 원본 소스 링크이 문을 첨부 해주세요.
이 링크 : https://blog.csdn.net/qq_43687990/article/details/102632715

첫 번째 단계는 환경을 구성
하면 JDK를 설치해야하므로, 자바 인해 기본 하둡에, 그리고 구성 자바 환경을 제공합니다.
JDK 상세히 설명하지 설치 이것이 주로 자바 환경 변수를 구성되어있다. 은 / etc / 프로파일 구성 파일 자바 환경 변수의 입력
, 편집 파일을

VI은 / etc / 프로필

다음과 같이 대부분의 구성 명령의 끝에 추가에

export JAVA_HOME=/usr/java/jdk1.7.0_67(这里的路径根据个人jdk所在路径所决定)
export PATH=$PATH:$JAVA_HOME/bin

후 구성에 대한 원은 / etc / 프로필 업데이트하여 구성하고 JPS 명령 자바 테스트 환경이 구성 사용한다. 다음 차트가 표시되면 구성이 성공적이었다.
여기에 그림 삽입 설명
두 번째 단계는, 키리스 구성.
이 두 명령을 사용하면 열쇠를 구성 할 수 있습니다. 노드를 전환하면 사용자의 암호를 확인 할 필요가 없습니다

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

세 번째 단계는 설치 패키지를 다운로드하고, 구성 환경 변수
I는 설치 패키지를 다운로드 하둡-2.6.5.tar.gz이다
압축 해제

타르 XF의 하둡-2.6.5.tar.gz (다운로드 한 압축 파일을 자신의 보관)

추출이 완료되면 환경 변수 하둡을 구성

export JAVA_HOME=/usr/java/jdk1.7.0_67
export HADOOP_HOME=/root/hadoop-2.6.5(这里是你Hadoop安装的路径)
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

구성 여부가 HDFS를 입력하여 확인할 수 확인
여기에 그림 삽입 설명
네번째 단계 하둡 제 JAVA_HOME 환경 변수 설정은
세 개의 문서에 hadoop-env.sh 구성 될 필요 mapred-env.sh, yarn-env.sh는
먼저 입력 하둡 2.6.5 / 등으로 hadop / 디렉토리 아래
VI hadoop-env.sh
여기에 그림 삽입 설명
VI mapred-env.sh
여기에 그림 삽입 설명
VI yarn-env.sh
여기에 그림 삽입 설명
5 단계의 구성에 site.xml 코어
VI 코어 - 더 site.xml 파일은
여기에 그림 삽입 설명
구성에 삽입 구성에서

 <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node2[此处node2是你虚拟机中IP的别名,对应着你节点的IP,如我的node2对应着虚拟机IP:192.168.163.xx]:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/sxt/hadoop/local</value> #此处路径为自由设置,用来存dataNode和nameNode等数据
    </property>

여섯 번째 단계는, 구성 HDF-site.xml 파일은
여기에 그림 삽입 설명
구성에 다음과 같은 구성을 추가

 <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>node06(改为自己虚拟机IP对应的别名):50090</value>
    </property>

일곱 번째 단계는 슬레이브 구성 파일
I가 노드 2로 변경하는 대신 자신의 가상 머신에 대응 IP 별칭 내부 로컬 호스트

여덟 번째 단계는 서식 HDFS는
(한 번 전용 형식으로 다시 수행 할 수있는 클러스터를 시작하지 않음) 네임 노드의 -format을 HDFS

아홉 번째 단계는 클러스터 시작
start-dfs.sh
표준 새 번역에 의한 프로세스의 역할을보기

보기 웹 UI : IP : 50,070 다음 페이지를 참조하십시오
여기에 그림 삽입 설명

열 번째 단계, 테스트 업로드 파일
, 디렉토리를 만들 자신에서 만든 디렉토리에 파일을 업로드합니다 : HDFS DFS -mkdir -p / 사용자 / 루트 ( 내 경로 : / 사용자 / 루트)
보기 카탈로그 : HDFS DFS -ls /
업로드 파일 : HDFS DFS 저것 집어 넣어 하둡-2.6.5.tar.gz / 사용자 / 루트

클러스터를 중지 중지 - dfs.dh을

추천

출처blog.csdn.net/qq_43687990/article/details/102632715