하둡 의사 분산 설치 노트

준비

1 리눅스 시스템 환경을 준비

2 JAVA 환경 설치

 

설치를 시작

1 사용자 하둡 하둡을 만들고, 다음 작업은 사용자 하둡에서 수행되는
2 다운로드 하둡
http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.1.3/hadoop-3.1.3. tar.gz의
3 디렉토리, 파일 업로드 및 추출물을 만들 수
에서 mkdir / usr / 지방 / 하둡
타르 zxf 하둡-3.1.3.tar.gz
4 구성 환경 변수 VI의 / etc / 프로필
경로를 내보내기 = $는 PATH : / usr / 지방 /의 하둡 /hadoop-3.1.3/bin:/usr/local/hadoop/hadoop-3.1.3/sbin
수출 HADOOP_HOME = / usr / 지방 / 하둡 / 하둡-3.1.3
수출 HADOOP_COMMON_LIB_NATIVE_DIR = $ HADOOP_HOME / lib 디렉토리 / 기본
부터 시행 소스 / 기타 / 프로필
5 수정 된 구성 파일 /usr/local/hadoop/hadoop-3.1.3/etc/hadoop
. (1) 수정 코어 site.xml 파일
VI 코어 SITE.XML, 메모를 다음을 추가하는 것이 실제 디렉토리
<구성>
     <속성 >
        <이름> hadoop.tmp.dir </ 이름>
        <값> 파일 : /usr/local/hadoop/hadoop-3.1.3/tmp </ 값>
        . <설명> 기타 임시 디렉토리베이스상의 </ 설명>에 대한
    < / 속성>
    <속성>
        <이름> fs.defaultFS </ 이름>
        <값> HDFS : // localhost를 : 9000 </ 값>
    </ 속성>
</ 구성>
(2) HDFS-site.xml 파일을 수정
VI HDFS -site.xml
<구성>
     <속성>
        <이름> dfs.replication </ 이름>
        <값> 1 </ value>를
    </ 속성>
    <속성>
        <이름> dfs.namenode.name.dir </ 이름>
        <값> 파일 : /usr/local/hadoop/hadoop-3.1.3/tmp/dfs / 이름 </ 값>
    </ 부동산>
    <특성>
        <이름> dfs.datanode.data.dir </ 이름>
        <값> 파일 : /usr/local/hadoop/hadoop-3.1.3/tmp/dfs/data </ value>를
    </ 속성>
</ 구성>
(3) VI hadoop-env.sh
수출 JAVA_HOME = / usr / 지방 / 자바 / jdk1.8.0_231
브라우저에서 입력 인터페이스 분산 파일 시스템 팝업 수
http://192.168.9.7:9870/을
연결 포트 설명
HDFS
    DataNode에서
        50010 (hadoop3 : 9866) 데이터 전송을위한 데이터 노드 서비스 포트 dfs.datanode.address을
        50075 (hadoop3 : 9864) dfs.datanode.http.address HTTP 서비스 포트
        50475 (hadoop3 : 9865) dfs.datanode .https.address HTTPS 포트 서비스
        50020 (hadoop3 : 9867)의 포트 dfs.datanode.ipc.address의 IPC 서비스
    네임 노드
        50070 (hadoop3 : 9870) 포트 dfs.namenode.http 주소에 http 서비스
        50470 (hadoop3 : 9871) DFS .namenode.https 주소 HTTPS 포트 서비스
        (8020) (hadoop3 : 9820) fs.defaultFS 클라이언트가 파일 시스템 메타 데이터 정보를 취득하는, RPC 포트 접속을 수신한다.

 

추천

출처www.cnblogs.com/zhuch-402/p/11908736.html