GreptimeDB vs. ClickHouse vs. ElasticSearch 日志引擎性能对比报告

本报告将初步给出 v0.9 首次引入的日志存储和检索的单机性能,包括写入和查询性能、资源占用和压缩率等。在可观测性领域中,常用的日志系统包括经典的 ELK 组合(ElasticSearch)以及在国内广泛使用的 ClickHouse。我们选择这两个系统进行横向对比,以供参考。GreptimeDB 面向云原生环境设计,因此我们也测试了基于 S3 对象存储的读写性能。

先来看结论:

  1. GreptimeDB 在写入性能、资源占用(CPU、内存和磁盘)方面都表现最优或次优,并且在本地磁盘和 S3 对象存储模式下,性能表现没有下降。单机在 8C16G 机器规格下达到 12 万行日志每秒写入,是 ES 的 3 倍,压缩率 13% 最优,内存占用仅为 ES 的 1/32;
  2. ElasticSearch 的资源消耗最大,写入最慢,但是换来的查询性能最优;
  3. GreptimeDB 大部分查询性能和 ClickHouse 接近,能满足日志使用场景。

以上结论跟三个产品面向的场景有关,我们在总结部分展开,下面是详细的测试报告。

测试场景

测试数据和流程

我们选用 nginx access log 作为写入数据,一行数据的样例如下:

129.37.245.88 - meln1ks [01/Aug/2024:14:22:47 +0800] "PATCH /observability/metrics/production HTTP/1.0" 501 33085

我们使用 vector 这个开源可观测数据 pipeline 来生成并写入上面的数据。整体测试的流程如图:

数据写入后,我们分别使用 SQL(GreptimeDB 和 ClickHouse)和 ElasticSearch HTTP 协议进行查询测试。

写入方式

写入方式我们也做了区分:

  • 切分模式(Structured model):将每行日志,切分出多个字段,比如上面这行日志,可以切分出 http_versionipmethodpathstatus 等字段。我们同样使用 vector 进行日志的解析和切分;

  • 全文模式(Unstructured model):将该条日志,除了时间戳以外,完整存储为一个 message 的文本字段,并启用全文索引。

我们也将比较两种模式带来的差异。

扫描二维码关注公众号,回复: 17501044 查看本文章

软硬件说明

硬件环境

机器规格 操作系统
aws c5d.2xlarge, 8 CPU 16 Gib memory ubuntu 24.04 LTS

软件版本及设置

GreptimeDB v0.9.2
ClickHouse(下文统称 CH) 24.9.1.219
ElasticSearch(下文统称 ES) 8.15.0

如无特殊说明,三个存储都采用默认配置

GreptimeDB S3 配置,开启了对象存储的读写 Buffer/Cache:

[storage]
type = "S3"
bucket = "ap-southeast-1-test-bucket"
root = "logitem_data"
access_key_id = "xxx"
secret_access_key = "xxx"
endpoint = "endpoint"
region = "ap-southeast-1"
cache_path = "/home/ubuntu/s3cache"
cache_capacity = "20G"

[[region_engine]]
[region_engine.mito]
enable_experimental_write_cache = true
experimental_write_cache_size = "20G"

切分模式设置

Vector 解析配置:

[transforms.parse_logs]
type = "remap"
inputs = ["demo_logs"]
source = '''
. = parse_regex!(.message, r'^(?P<ip>\S+) - (?P<user>\S+) \[(?P<timestamp>[^\]]+)\] "(?P<method>\S+) (?P<path>\S+) (?P<http_version>\S+)" (?P<status>\d+) (?P<bytes>\d+)$')

# Convert timestamp to a standard format
.timestamp = parse_timestamp!(.timestamp, format: "%d/%b/%Y:%H:%M:%S %z")

# Convert status and bytes to integers
.status = to_int!(.status)
.bytes = to_int!(.bytes)
'''

GreptimeDB 建表语句:

--启用了 append 模式,并且将 user、path 和 status 设置为 Tag 类型(即主键)
CREATE TABLE IF NOT EXISTS `test_table` (
    `bytes` Int64 NULL,
    `http_version` STRING NULL,
    `ip` STRING NULL,
    `method` STRING NULL,
    `path` STRING NULL,
    `status` SMALLINT UNSIGNED NULL,
    `user` STRING NULL,
    `timestamp` TIMESTAMP(3) NOT NULL,
    PRIMARY KEY (`user`, `path`, `status`),
    TIME INDEX (`timestamp`)
)
ENGINE=mito
WITH(
    append_mode = 'true'
);

ClickHouse 建表语句:

--使用默认 MergeTree 引擎,定义同样的 sorting key。
CREATE TABLE IF NOT EXISTS test_table
(
    bytes UInt64 NOT NULL,
    http_version String NOT NULL,
    ip String NOT NULL,
    method String NOT NULL,
    path String NOT NULL,
    status UInt8 NOT NULL,
    user String NOT NULL,
    timestamp String NOT NULL,
)
ENGINE = MergeTree()
ORDER BY (user, path, status);

ElasticSearch 建表语句 (mapping):

{
    
    
  "vector-2024.08.19": {
    
    
    "mappings": {
    
    
      "properties": {
    
    
        "bytes": {
    
    
          "type": "long"
        },
        "http_version": {
    
    
          "type": "text",
          "fields": {
    
    
            "keyword": {
    
    
              "type": "keyword",
              "ignore_above": 256
            }
          }
        },
        "ip": {
    
    
          "type": "text",
          "fields": {
    
    
            "keyword": {
    
    
              "type": "keyword",
              "ignore_above": 256
            }
          }
        },
        "method": {
    
    
          "type": "text",
          "fields": {
    
    
            "keyword": {
    
    
              "type": "keyword",
              "ignore_above": 256
            }
          }
        },
        "path": {
    
    
          "type": "text",
          "fields": {
    
    
            "keyword": {
    
    
              "type": "keyword",
              "ignore_above": 256
            }
          }
        },
        "status": {
    
    
          "type": "long"
        },
        "timestamp": {
    
    
          "type": "date"
        },
        "user": {
    
    
          "type": "text",
          "fields": {
    
    
            "keyword": {
    
    
              "type": "keyword",
              "ignore_above": 256
            }
          }
        }
      }
    }
  }
}

全文模式设置

GreptimeDB 建表语句:

--message 列启用 FULLTEXT 选项,开启全文索引
CREATE TABLE IF NOT EXISTS `test_table` (
    `message` STRING NULL FULLTEXT WITH(analyzer = 'English', case_sensitive = 'false'),
    `timestamp` TIMESTAMP(3) NOT NULL,
    TIME INDEX (`timestamp`)
)
ENGINE=mito
WITH(
    append_mode = 'true'
);

ClickHouse 建表语句:

SET allow_experimental_full_text_index = true;
CREATE TABLE IF NOT EXISTS test_table
(
    message String,
    timestamp String,
    INDEX inv_idx(message) TYPE full_text(0) GRANULARITY 1
)
ENGINE = MergeTree()
ORDER BY tuple();

ElasticSearch:

{
    
    
  "vector-2024.08.19": {
    
    
    "mappings": {
    
    
      "properties": {
    
    
        "message": {
    
    
          "type": "text",
          "fields": {
    
    
            "keyword": {
    
    
              "type": "keyword",
              "ignore_above": 256
            }
          }
        },
        "service": {
    
    
          "type": "text",
          "fields": {
    
    
            "keyword": {
    
    
              "type": "keyword",
              "ignore_above": 256
            }
          }
        },
        "source_type": {
    
    
          "type": "text",
          "fields": {
    
    
            "keyword": {
    
    
              "type": "keyword",
              "ignore_above": 256
            }
          }
        },
        "timestamp": {
    
    
          "type": "date"
        }
      }
    }
  }
}

写入性能

不限速写入 1 亿条数据:

切分模式 全文模式
写入耗时(单位:分钟) 平均 TPS 写入耗时(单位:分钟) 平均 TPS
GreptimeDB 13.1 127,226 17.5 95,238
GreptimeDB on S3 13.2 126,262 16.2 102,881
ClickHouse 10 166,667 12.2 136,612
ElasticSearch 42.3 39,401 59.4 28,058
  • 切分模式下,写入性能上 CH 最佳, GreptimeDB 本地磁盘模式和 S3 模式写入性能相当,都在 12~13 万行每秒左右, ES 最差,并且差距较大,仅为 GreptimeDB 的 1/3, ClickHouse 的 1/4

  • 全文模式下,整体横向对比结论不变,但是写入性能都有所下降,GreptimeDB 下降 25%,ClickHouse 下降 18%,ES 下降 29%,可见全文索引对写入的影响不小

资源占用和压缩率

资源占用

为了观察写入过程中的资源占用,我们将写入速度限速为 2 万行每秒,然后采集 CPU 和内存占用情况:

切分模式 全文模式
CPU(%) Memory(MB) CPU(%) Memory(MB)
GreptimeDB 33.24 377 16.79 462
ClickHouse 8.91 589 32.97 632
ElasticSearch 56.03 12,381 65.40 8,782

可以看到:

  • 切分模式下,ClickHouse 的 CPU 消耗最低,GreptimeDB 其次, ES 消耗较高,是 CH 的 6 倍, GreptimeDB 的 1.7 倍,内存上 GreptimeDB 消耗最低, ClickHouse 其次,而 ES 的内存占用超过了 12 G,是 CH 的 21 倍, GrptimeDB 的 32 倍;

  • 全文模式下,无论是 CPU 还是内存,都是 GreptimeDB 最优,其次 ClickHouse,ES 仍然是消耗最高的,尤其是内存;

  • 测试过程中发现 ClickHouse 的 CPU 波动最大,最高可以到 139%。

这个结果其实跟三者的架构,以及针对优化的场景有关,我们最后再分析。

压缩率

原始 10 亿条数据在 10 GB 大小左右,我们再来看下三者的压缩率:

切分模式 全文模式
磁盘占用(GB) 压缩率 磁盘占用(GB) 压缩率
GreptimeDB data 1.3 13% 3.3 33%
ClickHouse 压缩前 7.6 15.5
压缩后 2.6 26% 5.1 51%
ElasticSearch 压缩前 14.6 19.0
压缩后 10.2 102% 17.2 172%

由于 ClickHouse 和 ES 在写入完成后会持续对数据进行压缩,我们这里同时记录刚写入完成和数据大小不再变化后的数据大小。可以看到:

  • **任何模式下, GreptimeDB 的压缩率都是最好的,切分模式下是原始数据的 13%,全文模式下是原始数据的 33%。**ClickHouse 其次,也都比原始数据更小,而 ES 最差,由于索引构建的开销,整体数据都比原始数据更大;

  • **切分模式下的压缩率都好于全文模式。**切分模式下,更多的列被提取出来,而 GreptimeDB 是列存结构,因此压缩率更优。

查询性能

查询场景

我们将查询场景区分为 6 个,覆盖比较典型的日志使用场景:

  1. Count 统计查询:统计全表数据行数;

  2. 关键词匹配查询:匹配日志中的 user、method、endpoint、version、code 分别为特定值;

  3. 区间统计查询:使用时间范围统计约一半(5,000 万行)数据量的查询;

  4. 中间时间范围查询:取时间中间范围一分钟,并查询 1000 行数据;

  5. 最近时间范围查询:取最近时间范围一分钟,并查询 1000 行数据;

  6. 关键词匹配 + 区间查询:查询特定时间范围内的字段匹配结果。

GreptimeDB 和 ClickHouse 都使用 SQL 进行查询,前者使用 MySQL 客户端工具,后者使用 CH 自身提供的命令行客户端:https://Clickhouse.com/docs/en/interfaces/cli

ElasticSearch 我们使用 search 的 REST API:https://www.elastic.co/guide/en/elasticsearch/reference/current/search-search.html

切分模式查询性能

平均耗时 / 单位 ms GreptimeDB GreptimeDB on S3 ClickHouse ElasticSearch
Count 统计查询 7 7 46 10
关键词匹配查询 41 69 52 134
区间统计查询 994 1079 413 16
中间时间范围 49 56 56 32
最近时间范围 78 40 133 25
关键词匹配 + 区间查询 27 49 52 88

切分模式下,三者的查询性能大部分都很接近,都可以在 1 秒内完成查询,区间统计查询对于 GreptimeDB 和 ClickHouse 来说都需要扫表,比 ES 差的比较多,我们也在针对这一点做优化。GreptimeDB 在本地磁盘和 S3 模式下的查询性能基本一致。

全文模式查询性能

GreptimeDB 默认的全文索引配置是相对保守的,为了保持稳定的在线写入和查询性能,没有充分利用内存和 CPU。而 ClickHouse 和 ES 都会充分利用内存和索引,因此我们在这个模式下还提供了一个优化配置的结果,我们修改了 GreptimeDB 下列两个配置:

  • page_cache_size = “10GB”,增大 SST 的 page cache 大小到 10GB;

  • scan_parallelism = 8,扫描 SST 的并行数,默认为 CPU 数的四分之一,调整到 8 以使用所有的 CPU 核心;

  • 我们也提供了默认配置下的查询结果:

平均耗时 / 单位 ms GreptimeDB GreptimeDB on S3 GreptimeDB 默认设置 ClickHouse ElasticSearch
Count 统计查询 8 7 8 43 9
关键词匹配查询 994 986 5596 2080 161
区间统计查询 1603 1101 1493 572 10
中间时间范围 1624 846 3694 51 26
最近时间范围 445 17 429 606 22
关键词匹配 + 区间查询 930 586 5373 1610 122

GreptimeDB 默认配置的查询性能除了最近时间范围查询以外都最差,在修改默认配置后,所有查询耗时都可以在 1.6 秒内完成,部分查询比 CH 更快,比如最常见的关键词匹配+时间区间范围查询。ES 的查询性能最优,较大的内存占用和更优化的索引实现带来来更好的查询性能, CH 表现较为均衡。

GreptimeDB 正在持续优化查询性能,未来预计默认配置将达到与 ClickHouse 相当的水平,敬请期待。

总结

通过测试,我们得出以下结论:

  • GreptimeDB 的日志引擎在写入性能、资源占用和压缩率方面表现出色,CH 较为平衡,而 ES 在这些方面表现最差且资源消耗高。

  • 查询性能方面,切分模式下 GreptimeDB 与 CH 和 ES 相当。全文模式下,GreptimeDB 表现一般,但优化后可在 1.6 秒内完成大部分查询。ES 查询性能最佳,CH 较为均衡。

  • GreptimeDB 在本地磁盘和 S3 对象存储模式下性能基本一致。

  • 切分模式(日志结构化)提升了读写性能和压缩率。GreptimeDB 和 ES 都具备 Ingestion Pipeline 功能,可将非结构化文本转换为结构化数据。

这个结果其实跟三者面向的场景紧密相关:

  1. GreptimeDB 为面向在线的可观测应用而设计,比如智能运维和监控场景,尤其是海量数据,比如车联网或者大规模的监控系统,并且提供了数据直接保存在对象存储的能力。由于在线监控需要持续可用,因此 GreptimeDB 对于资源的使用会相对谨慎和控制,更希望提供稳定 7x24 读写服务,并具备良好的水平扩展能力。

  2. ClickHouse 面向离线数仓服务设计,离线数仓很多是 ad hoc 查询或者长时间范围的数据分析,对查询耗时和失败率没有那么敏感,CH 更充分地利用 CPU 和内存等资源。

  3. ElasticSearch 专为在线或离线检索业务而设计,具备良好的索引能力和完备的搜索功能(基于优秀的 Apache Lucence 项目),更加激进地使用资源,尤其是内存和磁盘占用,但是相对的,消耗的资源也是最大,写入性能也较差。

简而言之,在海量日志场景下, GreptimeDB 是一个性价比最高的选择,基于云原生架构,可以用更低的资源消耗(CPU、内存和磁盘)来承载大量日志的存储,并且具备优秀的水平扩展能力,但是作为首个版本实现,查询性能相对一般,还需要持续优化。ClickHouse 也是较为优秀的选择,只是 ClickHouse 仍然是传统的分布式架构设计,没有办法充分地利用云的基础设施,尤其是弹性和廉价对象存储。而 ES 则更适合面向在线的搜索业务,对于延时和结果排序更为敏感,日志场景不是合适的选择,资源消耗和写入性能都最差。最后,CH 和 ES 的分布式集群的运维部署都相当繁琐。

GreptimeDB 的日志引擎目前还是第一个版本,我们将持续优化,敬请关注!

详细的测试配置及步骤说明请参考 这里

关于 Greptime

Greptime 格睿科技专注于为可观测、物联网及车联网等领域提供实时、高效的数据存储和分析服务,帮助客户挖掘数据的深层价值。目前基于云原生的时序数据库 GreptimeDB 已经衍生出多款适合不同用户的解决方案,更多信息或 demo 展示请联系下方小助手(微信号:greptime)。

欢迎对开源感兴趣的朋友们参与贡献和讨论,从带有 good first issue 标签的 issue 开始你的开源之旅吧~期待在开源社群里遇见你!添加小助手微信即可加入“技术交流群”与志同道合的朋友们面对面交流哦~

Star us on GitHub Now: https://github.com/GreptimeTeam/greptimedb

官网:https://greptime.cn/
文档:https://docs.greptime.cn/
Twitter: https://twitter.com/Greptime
Slack: https://greptime.com/slack
LinkedIn: https://www.linkedin.com/company/greptime/

猜你喜欢

转载自blog.csdn.net/beary_tang/article/details/143437361