[초상세] Apache Durid 입문부터 설치까지 튜토리얼

파일

1. 두리드 개요

Apache Druid는 시계열 데이터베이스, 데이터 웨어하우스 및 전체 텍스트 검색 시스템의 특성을 통합하는 분석 데이터 플랫폼입니다. 이 기사는 Druid의 기능, 사용 시나리오, 기술적 기능 및 아키텍처에 대한 간략한 이해를 안내합니다. 이것은 데이터 스토리지 솔루션을 선택하고, Druid 스토리지에 대한 통찰력을 얻고, 시계열 스토리지에 대한 통찰력을 얻는 데 도움이 됩니다.

Apache Druid는 고성능 실시간 분석 데이터베이스입니다.

1.1 사용하는 이유

1.1.1 클라우드 네이티브 데이터베이스

최신 클라우드 네이티브, 스트림 네이티브, 분석 데이터베이스

Druid는 빠른 쿼리 및 빠른 데이터 수집 워크플로를 위해 설계되었습니다. Druid는 강력한 UI, 런타임 시 운영 쿼리 및 고성능 동시 처리 기능이 강합니다. Druid는 다양한 사용자 시나리오를 충족시키는 데이터 웨어하우스의 오픈 소스 대안으로 볼 수 있습니다.

1.1.2 쉬운 통합

기존 데이터 파이프라인과 쉽게 통합

Druid는 메시지 버스(예: Kafka, Amazon Kinesis)에서 데이터를 스트리밍하거나 데이터 레이크(예: HDFS, Amazon S3 및 기타 유사한 데이터 소스)에서 파일을 일괄 로드할 수 있습니다.

1.1.3 초고성능

기존 솔루션보다 100배 빠른 성능

  • 데이터 수집 및 데이터 쿼리에 대한 Druid의 벤치마크 성능 테스트는 기존 솔루션을 훨씬 능가합니다.

  • Druid의 아키텍처는 데이터 웨어하우스, 시계열 데이터베이스 및 검색 시스템의 최고의 기능을 통합합니다.

1.1.4 작업 흐름

새로운 워크플로 잠금 해제

Druid는 Clickstream, APM(응용 프로그램 성능 관리 시스템), 공급망(공급망), 네트워크 원격 측정, 디지털 마케팅 및 기타 이벤트 중심 시나리오 형식에 대한 새로운 쿼리 방법 및 워크플로를 잠금 해제합니다. Druid는 실시간 및 과거 데이터의 빠른 임시 쿼리를 위해 구축되었습니다.

1.1.5 다중 배포 방법

AWS/GCP/Azure, 하이브리드 클라우드, k8 및 임대 서버에 배포 가능

Druid는 온프레미스든 클라우드든 모든 Linux 환경에 배포할 수 있습니다. Druid 배포는 매우 쉽습니다. 서비스를 추가하거나 제거하여 확장하거나 축소할 수 있습니다.

1.2 사용 시나리오

Apache Druid는 실시간 데이터 추출, 고성능 쿼리 및 고가용성에 대한 요구 사항이 높은 시나리오에 적합합니다. 따라서 Druid는 GUI가 풍부한 분석 시스템이나 빠른 집계가 필요한 동시성이 높은 API의 백엔드로 자주 사용됩니다. Druid는 이벤트 지향 데이터에 더 적합합니다.

1.2.1 일반적인 사용 시나리오

더 일반적인 사용 시나리오

1.2.1.1 사용자 활동 및 행동

Druid는 종종 클릭스트림, 액세스 스트림 및 활동 스트림 데이터에 사용됩니다. 특정 시나리오에는 사용자 참여 측정, 제품 출시를 위한 A/B 테스트 데이터 추적, 사용자가 사용하는 방법 이해가 포함됩니다. Druid는 고유 카운트 메트릭과 같은 사용자 메트릭의 정확하고 대략적인 계산을 수행할 수 있습니다. 즉, 일일 활성 사용자와 같은 메트릭을 1초 내에 근사화하여(평균 정확도 98%) 일반적인 추세를 확인하거나 이해 관계자에게 표시하기 위해 정확하게 계산할 수 있습니다. Druid는 "깔때기 분석"을 수행하여 몇 명의 사용자가 한 가지 작업을 수행하고 다른 작업은 수행하지 않는지 측정하는 데 사용할 수 있습니다. 이는 제품 추적 사용자 등록에 유용합니다.

1.2.1.2 네트워크 흐름

Druid는 종종 네트워크 흐름 데이터를 수집하고 분석하는 데 사용됩니다. Druid는 스트림 데이터 분할을 관리하고 임의의 속성과 결합하는 데 사용됩니다. Druid는 많은 수의 네트워크 흐름 기록을 추출할 수 있으며 쿼리 시간에 수십 개의 속성을 빠르게 결합하고 정렬할 수 있어 네트워크 흐름 분석을 용이하게 합니다. 이러한 속성에는 IP 및 포트 번호와 같은 일부 핵심 속성뿐 아니라 지리적 위치, 서비스, 애플리케이션, 장치 및 ASN과 같은 일부 추가 향상된 속성이 포함됩니다. Druid는 고정되지 않은 스키마를 처리할 수 있으므로 원하는 속성을 추가할 수 있습니다.

1.2.1.3 디지털 마케팅

Druid는 종종 온라인 광고 데이터를 저장하고 쿼리하는 데 사용됩니다. 일반적으로 광고 서비스 제공업체에서 제공하는 이 데이터는 광고 캠페인 실적, 클릭률, 전환율(소비율) 및 기타 측정항목을 측정하고 이해하는 데 중요합니다.

Druid는 원래 광고 데이터를 위한 강력한 사용자 대면 분석 애플리케이션으로 설계되었습니다. 광고 데이터 저장 측면에서 Druid는 이미 많은 생산 관행을 가지고 있으며 전 세계의 많은 사용자가 수천 대의 서버에 PB 수준 데이터를 저장했습니다.

1.2.1.4 애플리케이션 성능 관리

Druid는 종종 애플리케이션에서 생성된 운영 데이터를 추적하는 데 사용됩니다. 사용자 활동 사용 시나리오와 유사하게 이러한 데이터는 사용자가 애플리케이션과 상호 작용하는 방식에 관한 것일 수 있으며 애플리케이션 자체에서 보고하는 지표 데이터일 수 있습니다. Druid는 드릴다운하여 응용 프로그램의 다양한 구성 요소가 수행되는 방식을 확인하고, 병목 지점을 찾고, 문제를 찾는 데 사용할 수 있습니다.

많은 기존 솔루션과 달리 Druid는 더 작은 저장 용량, 덜 복잡하고 더 큰 데이터 처리량의 특성을 가지고 있습니다. 수천 개의 속성으로 애플리케이션 이벤트를 빠르게 분석하고 복잡한 로드, 성능, 활용도 메트릭을 계산할 수 있습니다. 예를 들어, 95% 쿼리 지연 시간을 기반으로 하는 API 엔드포인트. 데이터 센터 위치별 통계와 같이 사용자 초상화별 통계와 같이 일별 데이터와 같은 임시 속성별로 데이터를 구성하고 분류할 수 있습니다.

1.2.1.5 IoT 및 장치 메트릭

Driud는 서버 및 장치 처리를 위한 메트릭 데이터를 저장하는 시계열 데이터베이스 솔루션으로 사용할 수 있습니다. 실시간 머신 생성 데이터를 수집하여 빠른 임시 분석을 수행하여 성능을 측정하고 하드웨어 리소스를 최적화하며 문제를 찾습니다.

기존의 많은 시계열 데이터베이스와 달리 Druid는 본질적으로 분석 엔진입니다. Druid는 시계열 데이터베이스, 열 분석 데이터베이스 및 검색 시스템의 개념을 결합합니다. 단일 시스템에서 시간 기반 파티셔닝, 컬럼 스토리지 및 검색 인덱스를 지원합니다. 즉, 시간 기반 쿼리, 수치 집계 및 검색 필터 쿼리가 모두 매우 빠릅니다.

메트릭에 수백만 개의 고유한 차원 값을 포함하고 원하는 차원으로 그룹화 및 필터를 결합할 수 있습니다(Druid의 차원 차원은 시계열 데이터베이스의 태그와 유사함). 태그 그룹 및 순위를 기반으로 많은 수의 복잡한 메트릭을 계산할 수 있습니다. 또한 기존 시계열 데이터베이스보다 빠르게 태그를 검색하고 필터링할 수 있습니다.

1.2.1.6 OLAP 및 비즈니스 인텔리전스

Druid는 비즈니스 인텔리전스 시나리오에서 자주 사용됩니다. 기업은 쿼리를 가속화하고 애플리케이션을 향상시키기 위해 Druid를 배포합니다. Presto 또는 Hive와 같은 Hadoop 기반 SQL 엔진과 달리 Druid는 높은 동시성과 1초 미만 쿼리를 위해 설계되어 UI를 통해 대화형 데이터 쿼리를 향상시킵니다. 따라서 Druid는 실제 시각적 상호 작용 분석에 더 적합합니다.

1.2.2 적합한 시나리오

사용 시나리오가 다음 특성을 충족하는 경우 Druid는 매우 좋은 선택입니다.

  • 데이터는 더 자주 삽입되지만 데이터는 덜 자주 업데이트됩니다.
  • 대부분의 쿼리 시나리오는 집계 쿼리 및 그룹화 쿼리(GroupBy)이며 특정 검색 및 스캔 쿼리도 있습니다.
  • 100ms에서 몇 초 사이의 목표 데이터 쿼리 지연 시간
  • 데이터에는 시간 속성이 있습니다(Druid는 시간에 맞게 최적화 및 설계되었습니다).
  • 다중 테이블 시나리오에서 각 쿼리는 하나의 큰 분산 테이블에만 도달하고 쿼리는 여러 개의 작은 조회 테이블에 도달할 수 있습니다.
  • 시나리오에는 신속하게 계산 및 정렬해야 하는 높은 카디널리티 차원 데이터(예: URL, 사용자 ID 등)의 열이 포함됩니다.
  • Kafka, HDFS, Amazon S3와 같은 객체 스토리지에서 데이터를 로드해야 합니다.
1.2.3 부적절한 시나리오

사용 사례가 다음 특성에 맞는 경우 Druid를 사용하는 것이 좋지 않을 수 있습니다.

  • 기본 키를 기반으로 하는 기존 데이터에 대한 저지연 업데이트 작업. Druid는 스트리밍 삽입을 지원하지만 스트리밍 업데이트는 지원하지 않습니다(업데이트 작업은 백그라운드 일괄 작업을 통해 수행됨).
  • 대기 시간이 중요하지 않은 오프라인 데이터 시스템
  • 시나리오에는 대형 조인(하나의 대형 팩트 테이블을 다른 대형 팩트 테이블에 조인)이 포함되며 이러한 쿼리를 완료하는 데 오랜 시간이 걸릴 수 있습니다.

2. 두리드란?

Apache Druid는 오픈 소스 분산 데이터 스토리지 엔진입니다.

Druid의 핵심 설계는 OLAP/분석 데이터베이스, 시계열 데이터베이스 및 검색 시스템의 개념을 통합하여 광범위한 사용 사례에 적용할 수 있는 통합 시스템을 만듭니다. Druid는 이 세 가지 시스템의 주요 기능을 Druid의 수집 계층(데이터 수집 계층), 저장 형식(저장 형식 계층), 쿼리 계층(쿼리 계층) 및 코어 아키텍처(코어 아키텍처)에 통합합니다.

파일

2.1 주요 기능

2.1.1 컬럼 저장

Druid는 데이터의 각 열을 개별적으로 저장하고 압축합니다. 그리고 조회 시 조회가 필요한 특정 데이터만 조회하며, 빠른 스캔, 랭킹, groupBy를 지원합니다.

2.2.2 네이티브 검색 인덱스

​ Druid는 빠른 데이터 검색 및 필터링을 위해 문자열 값에 대한 역 인덱스를 생성합니다.

2.2.3 스트리밍 및 일괄 데이터 수집

​ Apache kafka, HDFS, AWS S3 커넥터는 즉시 사용할 수 있는 스트림 프로세서입니다.

2.2.4 유연한 데이터 스키마

Druid는 변화하는 데이터 스키마와 중첩 데이터 유형에 유연하게 적응합니다.

2.2.5 시간 기반 최적화 파티셔닝

Druid는 시간에 따라 데이터를 지능적으로 분할합니다. 결과적으로 Druid의 시간 기반 쿼리는 기존 데이터베이스보다 훨씬 빠릅니다.

2.2.6 SQL 문 지원

기본 JSON 기반 쿼리 외에도 Druid는 HTTP 및 JDBC 기반 SQL도 지원합니다.

2.2.7 수평적 확장성

​ 수백만/초의 데이터 수집 속도, 대용량 데이터 저장, 1초 미만의 쿼리.

2.2.8 작동 및 유지 보수의 용이성

​ 서버를 추가하거나 제거하여 확장 및 축소할 수 있습니다. Druid는 자동 재조정 및 장애 조치를 지원합니다.

2.3 기술적 선택

파일

기술 비교
드루이드

​ 은 시계열 데이터를 실시간으로 처리하는 OLAP 데이터베이스로 인덱스를 먼저 시간에 따라 분할하고 쿼리도 타임라인에 따라 라우팅합니다.

카일린

​ 핵심은 Cube입니다. Cube는 데이터에 대해 다차원적 인덱싱을 미리 수행하는 사전 컴퓨팅 기술입니다. 쿼리 시 원본 데이터에 접근하지 않고 인덱스만 스캔하여 속도를 높입니다.

​ MapReduce를 사용하지 않으며 대부분의 시나리오에서 Hive보다 10배 더 빠르며 모든 처리가 메모리에서 수행된다는 것이 핵심입니다.

임팔라

​ 인메모리 연산을 기반으로 빠르며 Presto만큼 많은 데이터 소스를 지원하지 않습니다.

스파크 SQL

​ Spark 플랫폼의 OLAP 프레임워크를 기반으로 하는 기본 아이디어는 기계를 추가하여 병렬 컴퓨팅을 수행하여 쿼리 속도를 향상시키는 것입니다.

그것은이다

가장 큰 특징은 역 인덱스를 사용하여 인덱스 문제를 해결한다는 것입니다. 연구에 따르면 ES는 Druid보다 데이터 수집 및 집계에 더 많은 리소스를 사용합니다.

프레임 선택
  • 대용량 데이터 쿼리 효율성에서: Druid > Kylin > Presto > Spark SQL
  • 지원되는 데이터 소스 측면에서: Presto > Spark SQL > Kylin > Druid

2.4 데이터 수집

Druid는 스트리밍 및 일괄 데이터 수집을 모두 지원합니다. Druid는 일반적으로 Kafka와 같은 메시지 버스(스트리밍 데이터 로드용) 또는 HDFS와 같은 분산 파일 시스템(대량 데이터 로드용)을 통해 원시 데이터 소스에 연결합니다.

​ Druid는 Indexing 처리를 통해 데이터 노드에 원시 데이터를 세그먼트 형태로 저장하며, Segment는 쿼리에 최적화된 데이터 구조입니다.

파일

2.5 데이터 저장

대부분의 분석 데이터베이스와 마찬가지로 Druid는 컬럼 스토리지를 사용합니다. 다른 열의 데이터 유형(문자열, 숫자 등)에 따라 Druid는 열에 대해 다른 압축 및 인코딩 방법을 사용합니다. Druid는 또한 다양한 열 유형에 대해 다양한 유형의 인덱스를 구축합니다.

검색 시스템과 유사하게 Druid는 문자열 열에 대한 역 인덱스를 생성하여 더 빠른 검색 및 필터링을 달성합니다. 시계열 데이터베이스와 유사하게 Druid는 더 빠른 시간 기반 쿼리를 위해 시간을 기반으로 데이터를 지능적으로 분할합니다.

대부분의 기존 시스템과 달리 Druid는 데이터를 수집하기 전에 사전 집계할 수 있습니다. 이 사전 집계 작업을 롤업이라고 하며 상당한 스토리지 비용을 절약할 수 있습니다.

파일

2.6 쿼리

​ Druid는 JSON-over-HTTP 및 SQL 쿼리 방법을 지원합니다. 표준 SQL 연산 외에도 Druid는 많은 고유 연산을 지원하며 Druid가 제공하는 알고리즘 제품군은 카운팅, 순위 지정 및 분위수 계산을 빠르게 수행할 수 있습니다.

파일

Drui는 강력한 시스템으로 설계되었으며 연중무휴로 실행되어야 합니다.

Druid는 장기 작동을 보장하고 데이터 손실을 보장하기 위해 다음과 같은 기능을 가지고 있습니다.

2.6.1 데이터 복사

Druid는 구성된 복사본 수에 따라 여러 데이터 복사본을 생성하므로 단일 시스템의 오류가 Druid의 쿼리에 영향을 미치지 않습니다.

2.6.2 독립 서비스

​ Druid는 각 주요 서비스의 이름을 명확히 하고 있으며, 각 서비스는 용도에 따라 적절히 조정될 수 있습니다. 서비스는 다른 서비스의 정상적인 작동에 영향을 주지 않고 독립적으로 실패할 수 있습니다. 예를 들어 데이터 수집 서비스가 실패하면 새 데이터가 시스템에 로드되지 않지만 기존 데이터는 계속 쿼리할 수 있습니다.

2.6.3 자동 데이터 백업

Druid는 인덱스된 모든 데이터를 HDFS와 같은 분산 파일 시스템이 될 수 있는 파일 시스템에 자동으로 백업합니다. 모든 Druid 클러스터 데이터가 손실되고 백업 데이터에서 빠르게 다시 로드할 수 있습니다.

2.6.4 롤링 업데이트

​ 롤링 업데이트를 사용하면 사용자에 구애받지 않는 다운타임 없이 Druid 클러스터를 업데이트할 수 있습니다. 모든 Druid 버전은 이전 버전과 호환됩니다.

3. 설치 및 배포

3.1 환경 소개

3.1.1 두리드 포트 목록

다음은 포트 점유로 인한 서버 시작 실패를 방지하기 위한 Durid의 기본 포트 목록입니다.

역할 포트 소개하다
조정자 8081 클러스터에서 데이터 가용성 관리
역사적인 8083 이전에 쿼리된 데이터 저장
브로커 8082 외부 클라이언트의 쿼리 요청 처리
실시간 8084
과부하 8090 데이터 수집 워크로드 분산 제어
미들매니저 8091 데이터 수집을 담당
라우터 8888 브로커, 코디네이터 및 오버로드에게 요청을 라우팅할 수 있습니다.

3.2 설치 방법

Druid 설치 패키지를 얻는 방법에는 여러 가지가 있습니다.

3.2.1 소스 코드 컴파일

​druid /release 는 실제 환경에서 주변 종속성을 결합하거나 특정 쿼리를 지원하는 최적화를 추가하는 것과 같은 사용자 정의 요구 사항에 주로 사용됩니다.

3.2.2 공식 웹사이트에서 다운로드

​ 공식 웹사이트 설치 패키지 다운로드: Druid 배포 및 운영을 위한 가장 기본적인 구성 요소를 포함한 다운로드

3.2.3 Imply 콤보 키트

, 이 제품군에는 안정적인 버전의 Druid 구성 요소, 실시간 데이터 쓰기 지원 서비스, 그래픽 표시 쿼리 웹 UI 및 SQL 쿼리 지원 구성 요소 등이 포함되어 있습니다. 목적은 Druid 기반 데이터 분석 응용 프로그램 제품을 보다 편리하고 쉽게 구축하는 것입니다. 신속한 배포 .

3.3 독립 실행형 구성 참조

3.3.1 나노 퀵스타트

CPU 1개, 4GB RAM

  • 시작 명령:bin/start-nano-quickstart
  • 구성 디렉토리:conf/druid/single-server/nano-quickstart
3.3.2 마이크로 퀵 스타트

4개의 CPU, 16GB RAM

  • 시작 명령:bin/start-micro-quickstart
  • 구성 디렉토리:conf/druid/single-server/micro-quickstart
3.3.3 작은

8 CPU, 64GB RAM(~i3.2xlarge)

  • 시작 명령:bin/start-small
  • 구성 디렉토리:conf/druid/single-server/small
3.3.4 중간

16 CPU, 128GB RAM(~i3.4xlarge)

  • 시작 명령:bin/start-medium
  • 구성 디렉토리:conf/druid/single-server/medium
3.3.5 대형

32 CPU, 256GB RAM(~i3.8xlarge)

  • 시작 명령:bin/start-large
  • 구성 디렉토리:conf/druid/single-server/large
3.3.6 매우 큼

64 CPU, 512GB RAM(~i3.16xlarge)

  • 시작 명령:bin/start-xlarge
  • 구성 디렉토리:conf/druid/single-server/xlarge

3.4 독립 실행형 버전 설치

3.4.1 소프트웨어 요구 사항
  • 자바 8(8u92+)
  • Linux, Mac OS X 또는 기타 Unix 계열 OS(Windows는 지원되지 않음)
  • 도커 환경 설치
  • Docker-compose 환경 설치
3.4.2 하드웨어 요구 사항

Druid에는 여러 가지 예제 단일 서비스 구성과 이러한 구성으로 Druid 프로세스를 시작하는 스크립트가 포함되어 있습니다.

빠른 평가를 위해 랩톱과 같은 작은 컴퓨터에서 실행하는 경우 마이크로 빠른 시작 구성은 4CPU/16GB RAM 환경에 좋은 선택입니다. 자습서 외부에서 추가 평가를 위해 단일 머신 배포를 사용하려는 경우 마이크로 빠른 시작보다 더 큰 구성을 사용하는 것이 좋습니다.

대규모 단일 머신에 대한 예시 구성이 제공되지만 더 큰 규모에서는 내결함성과 리소스 경합 감소를 위해 클러스터된 배포에서 Druid를 실행하는 것이 좋습니다.

3.5 설치를 암시

Imply 방식의 설치를 권장하며, Imply 방식은 그래픽, 보고서 등의 기능은 물론 druid 컴포넌트도 제공합니다.

3.5.1 펄 설치

druid를 시작하려면 perl 환경을 사용해야 하므로 설치해야 합니다.

yum install perl gcc kernel-devel
3.5.2 방화벽 끄기
#查看防火状态
systemctl status firewalld
#暂时关闭防火墙
systemctl stop firewalld
#永久关闭防火墙
systemctl disable firewalld

파일

3.5.3 JDK 설치

시스템과 일치하는 버전을 선택하십시오. 제 것은 Centos7 64비트이므로 저라면 이 버전을 선택하겠습니다. 다운로드하면 tar.gz로 끝납니다.

3.5.3.1 JDK 다운로드

Oracle의 공식 웹 사이트로 이동하여 jdk1.8 을 다운로드 하고 선택하십시오.jdk-8u301-linux-x64.tar.gz

파일

파일을 로컬로 다운로드하고 Linux 디렉토리에 업로드하십시오.

3.5.3.2 업로드 및 압축 해제

파일 올리기

mkdir /usr/local/java

디렉토리 압축 풀기

tar -zxvf jdk-8u301-linux-x64.tar.gz
3.5.3.3 환경 변수 구성

환경변수 설정, 프로필 파일 수정, 다음 내용 추가

vi /etc/profile
export JAVA_HOME=/usr/local/java/jdk1.8.0_301
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

파일

3.5.3.4 효과적인 구성
source /etc/profile
3.5.3.5 환경 확인
java -version

파일

3.5.4 설치 암시
3.5.4.1 Imply 공식 웹사이트에 로그인

https://imply.io/get-started 를 방문 하여 Imply 공식 웹사이트에 들어가 해당 imply 버전의 설치 패키지를 찾은 후 간단한 정보를 입력하여 다운로드하세요.

파일

3.5.4.2 압축 해제 암시

다운로드 후 서버에 업로드 후 압축 해제

# 创建imply安装目录
mkdir /usr/local/imply
# 解压imply
tar -zxvf imply-2021.05-1.tar.gz
3.5.4.3 환경 준비

imply-2021.05-1디렉토리 입력 후

# 进入imply目录
cd imply-2021.05-1
3.5.4.4 빠른 시작

로컬 저장소, 기본 메타데이터 저장소 더비를 사용하고 사육사에서 시작하여 경험해 보세요.druid

# 创建日志目录
mkdir logs
# 使用命令启动
nohup bin/supervise -c conf/supervise/quickstart.conf > logs/quickstart.log 2>&1 &
3.5.4.5 로그 보기

quickstart.logimpl 시작 로그 보기

tail -f logs/quickstart.log

파일

서비스가 시작될 때마다 로그가 인쇄됩니다. var/sv/xxx/current를 통해 서비스 시작 시 로그 정보를 볼 수 있습니다.

tail -f var/sv/broker/current

파일

3.5.4.6 Imply 액세스

9095포트 를 방문하여 액세스할 수 있는 imply관리 페이지

http://192.168.64.173:9095/

파일

3.5.4.7 드루이드 접근

8888포트에 액세스하여 당사 druid에 액세스

http://192.168.64.173:8888/

파일

이 기사는 Yubo Xuegu의 야생 건축가가 게시했습니다. 이 기사가 도움이 되었다면 팔로우와 좋아요, 제안 사항이 있으면 댓글이나 개인 편지를 남길 수도 있습니다. 귀하의 지원은 저에게 원동력입니다. 계속 만들려면 출처를 밝혀주세요!

{{o.name}}
{{m.name}}

추천

출처my.oschina.net/jiagoushi/blog/5569936