HBase를 설치 구성

설치 패키지 HBase를-0.98.6-cdh5.3.6.tar.gz의 압축 해제를 다운로드하십시오,

링크 : HTTPS : // pan.baidu.com/s/1vsz2Cqh2cp0n99sHS_xBzg의 
추출 코드 : 4abh

사용이 자신의 사육사를 HBase를 할 것인지의 conf에 2. 구성 hbase-env.sh는, 구성을 JAVA_HOME을 구성

수출 JAVA_HOME = / 가정 / CMCC / 서버 / jdk1.8 .0_181 
수출 HBASE_MANAGES_ZK = 거짓

3. HBase를-site.xml 파일

. (1) (단일 노드)를 "네임 노드의 노드 이름
 <속성> 
    <이름> hbase.rootdir </ 이름> 
    <값> HDFS : // hadoop1 : 9000 </ 값> 
</ property>를
지원 분산 HBase를 허용할지 여부를 2 "

 <속성>
      <이름> hbase.cluster.distributed </ 이름>
      <값> 참 </ value>를
 </ 속성>

3 "구성 HBase와 포트 번호 
  (1) 제 1에있어서, 기록 전용 포트 번호 Hmaster 높은 가용성을 사용하므로

    <속성>
        <이름> hbase.master.port </ 이름>
        <값> 600000 </ value>를
    </ 속성>

  (2) 제 2 방법은 고정 장치의 테이블을 지정하는 것

    <속성>
        <이름> hbase.master.port </ 이름>
        <값> hadoop1 : 600000 </ value>를
    </ 속성>

<값> hadoop1 : 2181 hadoop2 : 2181 hadoop3 : 2,181 </ value>를> 표 1의 복수로 구성하는 경우 4 "구성 사육사는 사육사는 홀수이어야
  <속성>

      <이름> hbase.zookeeper.quorum </ 이름>
      <값> hadoop1 : 2,181 </ value>를
  </ 속성>

  사육사 데이터 디렉토리 구성 5 "

  <특성>
    <이름> hbase.zookeeper.property.dataDir </ 이름>
    <값> / 홈 / CMCC / 서버 / 사육사 / 데이터 </ 값>
  </ 부동산>

  6, "구성 포트 사육사

  <속성>
      <이름> hbase.zookeeper.property.clientPort </ 이름>
      <값> 2181 </ value>를
   </ 속성>

  7 "로컬 파일 시스템이 true로 설정 거짓 나타내는 HDFS로 설정되어
   <속성>
       <이름> hbase.unsafe.stream.capability.enforce </ 이름>
      <값> 진정한 </ 값>에
  </ 속성>

4. 편집 regionservers, 슬레이브 파일에 해당

  당신이 하나 있다면, 추가 : hadoop1를

  추가 하나 이하의 경우 :

    hadoop1

    hadoop2

    hadoop3

5. 모든 시작 하둡 항아리 패키지 LIB는 lib 디렉토리 디렉토리에 하둡 다음 해당 항아리 패키지에 다음, 삭제, 사육사 항아리 패키지는 사육사로 복사

  하둡은 먼저 지정된 디렉토리에 복사 항아리 패키지를 검색, 디렉토리를 입력

  찾을 -name 하둡 - 주석 / 홈 / CMCC / 서버 / T1 / 그리고 마지막으로 모든 병 패키지는 LIB 디렉토리에 복사됩니다  (이 클러스터 인 경우, 다른 머신을하는 것을 잊지 마세요)

하둡 - 주석 - 2.5.0 의 .jar 
하둡 -auth-2.5.0-cdh5.3.6 의 .jar 
하둡 -client-2.5.0-cdh5.3.6 의 .jar 
하둡 -common-2.5.0-cdh5.3.6 의 .jar 
하둡 - HDFS-2.5.0-cdh5.3.6 의 .jar 
하둡 -mapreduce - 클라이언트 응용 프로그램-2.5.0-cdh5.3.6 의 .jar 
하둡 -mapreduce 클라이언트 - 공통 2.5.0-cdh5.3.6 의 .jar 
하둡 -mapreduce 클라이언트 -core-2.5.0-cdh5.3.6 의 .jar 
하둡 -mapreduce 클라이언트-HS-2.5.0-cdh5.3.6 의 .jar 
하둡 -mapreduce 클라이언트-HS-플러그인-2.5.0-cdh5.3.6 의 .jar 
하둡 - 맵리 듀스 - 클라이언트 jobclient-2.5.0-cdh5.3.6.JAR 
하둡 -mapreduce - 클라이언트 jobclient-2.5.0-cdh5.3.6- tests.jar 
하둡 -mapreduce 클라이언트 셔플-2.5.0-cdh5.3.6 의 .jar 
하둡 -yarn-API-2.5.0-cdh5. 3.6 .JAR 
하둡 -yarn - 응용 - distributedshell-2.5.0-cdh5.3.6 의 .jar 
하둡 -yarn - 애플리케이션 - 관리되지 않는 - 오전 - 실행 - 2.5.0 - cdh5.3.6 의 .jar 
하둡 -yarn 클라이언트 - 2.5.0 -cdh5.3.6 의 .jar 
하둡 -yarn - 공통 2.5.0-cdh5.3.6 의 .jar 
하둡 -yarn - 서버 applicationhistoryservice-2.5.0-cdh5.3.6 의 .jar 
하둡 -yarn - 서버 공통 2.5.0- cdh5.3.6 의 .jar 
하둡-yarn - 서버 nodemanager-2.5.0-cdh5.3.6 .JAR 
하둡 -yarn-서버는 ResourceManager-2.5.0-cdh5.3.6 .JAR 
하둡 -yarn 서버 - 테스트 - 2.5.0-cdh5.3.6 .JAR 
하둡 -yarn - 서버 웹 프록시-2.5.0-cdh5.3.6 의 .jar 
사육사 -3.4.5-cdh5.3.6.jar

6. HBase를 + hadoop_repository.tar.gz CDH_HadoopJar.tar.gz 복사 LIB 디렉토리에 다운로드 1 네트워크 디스크  (IT 클러스터 인 경우, 다른 머신을하는 것을 잊지 마세요)

7.에서의 conf에 복사, HDFS-된 site.xml HBase와의 코어를 site.xml의 하둡  (IT 클러스터 인 경우, 다른 머신을하는 것을 잊지 마세요)

8. 서비스 시작

빈 / start-hbase.sh

 

추천

출처www.cnblogs.com/redhat0019/p/11842035.html