Hadoop 빅데이터 플랫폼 구축 (매우 상세한 단계)

관련 소프트웨어 다운로드 링크:

Xshell: 가정/학교용 무료 - NetSarang Website

Xftp: 가정/학교용 무료 - NetSarang Website

Xshell 및 Xftp 공식 웹사이트: XSHELL - NetSarang Website

Jdk: Baidu 네트워크 디스크, 추출 코드를 입력하세요   추출 코드: jdhp

Hadoop: Baidu 네트워크 디스크, 추출 코드를 입력하세요    추출 코드: jdhp

좋은 가상 머신 및 관련 환경을 구성해야 하는 경우 내 기사를 클릭하여 얻을 수 있습니다. Hadoop 빅 데이터 플랫폼 구축 환경은 가상 머신 관련 구성을 제공합니다.

1. 원본 가상 머신을 기반으로 두 개의 가상 머신 복제

       (1) 가상 머신을 마우스 오른쪽 버튼으로 클릭하고 관리를 클릭한 다음 복제를 클릭하고 이 단계를 두 번 반복합니다.

(2) 복제된 머신의 IP 주소가 원본 가상 머신의 IP 주소와 다른지 확인하고, 다를 경우 수정이 필요하며, 여기서는 복제 시 IP 주소가 자동으로 변경되므로 따로 추가할 필요가 없습니다. 그것을 수정하십시오.

2. 머신 이름 수정

       (1) 아래 그림의 빨간색 화살표에 수정된 이름을 입력합니다: stu2

명령: vi /etc/hostname

       (2) 다른 두 가상 머신에 대해 동일한 작업을 수행합니다.

       (3) 세 개의 가상 머신을 다시 시작합니다.

명령: 재부팅

              변경 후 세 가상 머신의 이름은 stu, stu2, stu3입니다.

3. 방화벽 끄기

       (1) 방화벽이 닫혀 있는지 확인

     

              원래 가상 머신의 방화벽이 꺼져 있으므로 다른 두 클론의 방화벽도 꺼져 있습니다.

       4. 비밀번호 없는 로그인을 위해 3개의 호스트 구성

       (1) 먼저 stu(stu2, stu3)에서 ssh 키 생성

              명령: ssh-keygen -t rsa  

Enter를 누르고 다음 프롬프트에서 Enter를 계속 누르십시오. 내용을 입력할 필요가 없습니다.

스튜:

방2:

스투3:

다음 두 개의 주요 파일이 홈 디렉토리 아래의 .ssh 디렉토리에 나타납니다.

스투:

방2:

스투3:

       (2) stu(stu2, stu3) 머신에서 디렉터리를 .ssh 디렉터리로 전환합니다.

              명령: cd ~/.ssh

       (3) .ssh 디렉토리에 새 authorized_keys 파일을 생성합니다.

              명령: Authorized_keys 터치

       (4) id_rsa.pub 파일의 내용을 authorized_keys 파일에 복사합니다.

              명령: cat id_rsa.pub >> authorized_keys

       (5) authorized_keys 파일의 내용 보기

              지침: cat authorized_keys

             

       (6) stu의 .ssh 디렉토리에 있는 authorized_keys 파일을 stu2의 해당 디렉토리로 보냅니다.

              명령: scp authorized_keys 192.168.80.129:$PWD

              프롬프트 뒤에 yes를 입력하고 Enter 키를 누릅니다.

              그런 다음 비밀번호를 입력하고 Enter를 눌러 전송을 완료하십시오.

       (7) stu2 머신으로 전환하고 ~/.ssh 디렉토리를 입력합니다.

              명령: cd ~/.ssh

       (8) stu2의 .ssh 디렉토리에 있는 id_rsa.pub 파일의 내용을 authorized_keys 파일에 복사합니다.

명령: cat id_rsa.pub >> authorized_keys

(9) stu2의 .ssh 디렉토리에 있는 authorized_keys 파일을 stu3의 해당 디렉토리로 보냅니다.

명령: scp authorized_keys 192.168.80.130:$PWD

프롬프트에 yes를 입력하고 Enter 키를 누른 다음 비밀번호를 입력합니다.

       (10) stu3 머신으로 전환하고 ~/.ssh 디렉토리를 입력합니다.

명령: cd ~/.ssh

(11) stu3의 .ssh 디렉토리에 있는 id_rsa.pub 파일의 내용을 authorized_keys 파일에 복사합니다.

명령: cat id_rsa.pub >> authorized_keys

(12) stu3의 .ssh 디렉토리에 있는 authorized_keys 파일을 stu1 및 stu2로 반환합니다.

명령: scp authorized_keys 192.168.80.128:$PWD

scp authorized_keys 192.168.80.129:$PWD

       (13) 검증(stu)

명령: SSH 192.168.80.130

             

       5. 호스트 이름과 IP 주소 간의 매핑 설정

       (1) /etc/hosts 파일 열기(stu에서)

명령: vi /etc/hosts

파일에 다음을 추가합니다.

192.168.80.128 스투

192.168.80.129 스투2

192.168.80.130 스투3

수정 후 ESC 키를 눌러 저장 후 종료

       (2) stu에 있는 /etc/hosts 파일을 각각 stu2와 stu3에 배포합니다.

명령: scp /etc/hosts 192.168.180.129:/etc/

scp /etc/호스트 192.168.180.130:/etc/

(3) 검증, stu2 및 stu3에 대한 ping

명령: 핑 192.168.80.129

명령: 핑 192.168.80.130

6. JDK 설치(세 머신 모두 JDK를 설치해야 합니다. stu를 예로 들겠습니다. 다른 두 작업은 동일합니다.)

(1) 먼저 시스템이 JDK와 함께 제공되는지 확인하십시오.

       명령: rpm -qa | grep jdk

        

(2) xftp 소프트웨어를 사용하여 jdk를 사용자의 Linux 홈 디렉토리에 업로드합니다.

       (3) 루트 디렉토리 아래에 서버 소프트웨어 서비스 디렉토리 생성

              명령: mkdir -p /exports/servers

       (4) 홈 디렉토리에 있는 jdk를 /exports/servers 디렉토리에 압축 해제합니다.

명령: tar -zxvf jdk-11.0.7_linux-x64_bin.tar.gz -C /exports/servers

       (5) /exports/servers 디렉토리에 압축 해제된 파일이 있는지 확인

              명령: ls /exports/servers

             

       (6) 환경변수 설정

              1) JDK의 루트 디렉터리를 복사하고 디렉터리를 JDK의 루트 디렉터리로 전환합니다.

명령: cd /exports/servers/jdk-11.0.7/

2) 나타나는 경로를 복사하십시오.

              명령어: pwd

3) 환경 변수 구성 파일 열기

명령: vi /etc/profile

4) 파일 끝에 다음을 추가합니다.

내보내기 JAVA_HOME=/exports/servers/jdk-11.0.7

내보내기 경로=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin

5) 저장 및 종료

      

(6) 구성 파일을 다시 시작하고 환경 변수가 성공적으로 구성되었는지 확인하십시오.

지침: source /etc/profile

명령: java -version

(7) stu에 있는 /exports 디렉토리의 내용을 각각 stu2와 stu3으로 전송합니다.

명령: scp -r /exports stu2:/

scp -r /exports stu3:/

       (8) stu의 /etc/profile 환경 변수 구성 파일을 각각 stu2와 stu3으로 보냅니다.

지침: scp /etc/profile stu2:/etc/

scp /etc/profile stu3:/etc/

(9) stu2 및 stu3에서 각각 source /etc/profile 명령을 실행합니다.

(10) stu2 및 stu3의 환경 변수가 성공적으로 구성되었는지 확인

       방2:

스투3:

7. Hadoop 설치(세 머신 모두 Hadoop을 설치해야 합니다. 작업은 동일합니다. 예를 들어 stu 작업을 수행합니다.)

(1) 전송 소프트웨어를 통해 hadoop-2.7.2.tar.gz를 stu의 루트 홈 디렉토리에 업로드합니다.

(2) /exports/servers 디렉토리에 hadoop-2.7.2.tar.gz의 압축을 풉니다.

명령: tar -zxvf hadoop-2.7.2.tar.gz -C /exports/servers/

(3) /exports/servers/hadoop-2.7.2 디렉토리로 전환

명령: cd /exports/servers/hadoop-2.7.2

(4) Hadoop의 루트 디렉토리 아래에 새로운 datas 디렉토리를 생성합니다.

명령: mkdir 데이터

(5) 하둡 구성

etc/hadoop 디렉토리를 입력하십시오.

명령: cd /exports/servers/hadoop-2.7.2/etc/hadoop/

다음 디렉토리를 차례로 수정하십시오: hadoop-env.sh, core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml 및 슬레이브 파일:

  • 주로 JAVA_HOME을 구성하는 hadoop-env.sh 파일 수정

명령: vi hadoop-env.sh

  • core-site.xml 수정

명령: vi core-site.xml

  • hdfs-site.xml 수정

명령: vi hdfs-site.xml

  • mapred-site.xml 파일 수정
  • hadoop 아래에는 mapred-site.xml 파일이 없습니다. mapred-site.xml.template 파일을 mapred-site.xml로 수정해야 합니다.

예: cp mapred-site.xml.template mapred-site.xml

mapred-site.xml 파일 열기

명령: vi mapred-site.xml

  • yarn-site.xml 수정

명령: vi yarn-site.xml

  • 슬레이브 파일 구성

명령: vi 노예

localhost를 삭제하고 파일에 다음을 추가합니다.

스튜

스투2

스투3

  • hadoop 루트 디렉토리의 bin에 있는 명령을 시스템 PATH에 추가하십시오.

명령: vi /etc/profile

다음을 추가

최종 파일은 다음과 같습니다.

내보내기 HADOOP_HOME=/exports/servers/hadoop-2.7.2

내보내기 경로=$PATH:$HADOOP_HOME/bin

  • 하둡 확인

명령: hadoop version

hadoop 명령의 환경 변수 구성이 성공했음을 증명하는 다음 인터페이스가 나타납니다.

  • /exports/servers 아래의 hadoop-2.7.2 디렉토리 내용을 stu2 및 stu3에 복사합니다.

예: scp -r /exports/servers/ hadoop-2.7.2/ stu2:/exports/servers/

scp -r /exports/servers/ hadoop-2.7.2/ stu3:/exports/servers/

  • stu의 /etc/profile 파일을 stu2 및 stu3에 복사합니다.

지침: scp /etc/profile stu2:/etc/

scp /etc/profile stu3:/etc/

stu2 및 stu3에서 각각 다음 명령을 실행합니다. source /etc/profile, 환경 변수가 즉시 적용되도록 합니다.

8. hadoop 클러스터 시작 및 확인

(1) namenode 포맷(stu에서 실행)

명령: hadoop namenode -format

                    

(2) 클러스터 시작(stu에서 실행)

디렉터리를 hadoop의 sbin 디렉터리로 변경합니다.

명령: cd /exports/servers/hadoop-2.7.2/sbin/

다음 명령을 실행합니다. ./start-dfs.sh

(3) 클러스터가 성공적으로 시작되었는지 확인

명령: jps

스투:

방2:

스투3:

(4) 브라우저를 열고 브라우저에 http://192.168.80.128:50070/ 입력

추천

출처blog.csdn.net/m0_53209892/article/details/126788997