快速了解kafka的基础架构

今天来聊下在大数据场景下比较流行的消息队列组件kafka。本篇文章将主要从理论角度来介绍。

kafka是一款开源、追求高吞吐、实时性,可持久化的流式消息队列,可同时处理在线(消息)与离线应用(业务数据和日志)。在如今火热的大数据时代,得到了广泛的应用。

整体架构

kafka的消息以Topic进行归类,支持分布式distribution、可分区partition和可复制replicated的特性。下面为本人梳理的一张Kafka系统架构图。

image.png

Kafka的架构相较于其他消息系统而言,比较简单。其整体流程简述如下

Producer与指定Topic各分区Partition的Leader连接,从而将消息push到Broker中。
Broker可理解消息系统的中间代理,将消息写入磁盘实现持久化,并可对消息复制备份。
Consumer采用pull的方式主动获取broker中指定Topic的消息,并进行处理。
Zookeeper负责Kafka服务相关metadata的存储,如broker,topic和consumer等信息的存储。

注:zookeeper是一个分布式协调服务,分布式应用可基于它实现同步服务,配置维护和命名服务等。此篇文章不做介绍,以后有时间再做总结!

下面对涉及的各个组件作详细介绍。

【大数据开发学习资料领取方式】:加入大数据技术学习交流群458345782,点击加入群聊,私信管理员即可免费领取

主题Topic

首先,Kafka中的消息以Topic分类管理。在Kafka中,一个topic可被多个Consumer订阅。通过集群管理,每个Topic可由多个Partition组成。如下图

image.png

从上图可以看出,Topic中数据是顺序不可变序列,采用log追加方式写入,因而kafka中无因随机写入导致性能低下的问题。

Topic的数据可存储在多个partition中,即可存放在不同的服务器上。这可使Topic大小不限于一台server容量。同时,消息存在多个partition上,可以实现Topic上消息的并发访问。

Kafka中数据不会因被consumer消费后而丢失,而是通过配置指定消息保存时长。Topic中每个partition中的消息都有一个唯一的标识,也称为offset。因数据不会因消费而丢失,所以只要consumer指定offset,一个消息可被不同的consumer多次消费。

image.png

基于此,消息获取即可采用顺序访问,我们也可以指定任意offset随机访问,且不会对其他consumer产生影响。

分布式Distribution

Kafka的集群分布式主要涉及两个内容:Partition分区与Replication备份。

Partition实现将Topic中的各个消息存储到不同的分区中,从而分布在不同的Kafka节点之上,使Topic的数据大小不限于一台Server。

Replication主要用于容错,对一个Partition复制多份,存储在不同kafka节点上。这可防止因某一分区数据丢失而导致错误。

虽然Relication复制Partition多份,但其中只有一个为Leader角色,其余Partition角色皆为Follower。Producer发布消息都是由Leader负责写入,并同步到其他的Follower分区中。如果Leader失效,则某个Follower会自动替换,成为新的Leader分区。此时,Follower可能落后于Leader,所以从所有Follower中选择一个”up-to-date”的分区。

关于性能方面,考虑Leader不但承载了客户的连接与消息写入,还负责将消息同步至不同的Follower分区上,性能开销较大。因此,不同Partition的Leader分布在不同的kafka节点上,从而防止某个节点压力过载。

为了更好了解Partition与Replication关系。举个例子,假设现有一个Topic名为spark_topic,其Partition分区数量为3,Replication备份因子为2。则效果如下图

image.png

spark_topic存在spark_topic-1,spark_topic-2,spark_topic-3共三个分区。而每个分区均有两处备份,如spark_topic-1,其同时存在于kafka节点broker0与broker1上,其中broker01上的分区角色为Leader。

消费者Consumer

Consumer负责消费消息。Kafka中Consumer消费消息采用fetch方式主动拉取,这种方式的好处是Consumer客户端能根据自己的处理消息能力决定消息获取的速度与批量获取的数量,从而防止系统过载。

Kafka的消息并不会因为消息被Consumer消费而丢失,因而其提供一个唯一的标识offset实现消息的顺序获取,而offset需要consumer自行维护,非kafka节点服务管理。这不同于传统的消息系统。在Kafka集群中,消费者的信息与offset在zookeeper也有保存维护,Consumer会间歇性向zookeeper同步offset。

Kafka的Consumer提供分组功能,每个Consumer都属于一个分组。那分组的作用是什么呢?

类似queue模式,一个Consumer分组的多个Consumer订阅同一个Topic,一条消息只分发给其中一个Consumer,实现负载均衡效果。

发布订阅模式,而不同组的多个Consumer订阅同一个Topic,一条消息会广播给在不同分组的所有Consumer。

image

请注意,在Kafka中,同一Consumer分组中,一个Consumer只能订阅一个Topic中的Partition,因而在一个Consumer分组中,同时订阅同一个Topic的Consumer的个数不能超过Partition分区数。可参看上图所示。

同样,为减少网络IO开销,Consumer可采用batch fetch方式实现一次批量获取多条消息。

应用场景

下面是一些官网介绍的Kafka应用场景,包括消息系统、网站行为跟踪、应用监控、日志收集等等。

消息系统

Kafka可以作为传统消息系统的替代。相比传统消息,Kafka有更高的吞吐量、拥有内置的分区Partition、复制备份高容错能力。

传统消息系统对高吞吐量没有过高要求,但kafka的低延迟特性和强大的备份容错能力是传统消息所必须的。

网站行为追踪

Kafka可用于用户行为追踪,通过将用户行为数据发送给Kafka。以此为基础,实现用户行为在线与离线分析,可用于网站实时监控与异常行为拦截等。

日志收集

Kafka可以作为日志收集解决方案。日志收集通常是将不同服务器的日志文件收集到一个中心区域,Kafka实现了对日志文件数据进行抽象,统一了处理接口。Kafka低延迟,支持不同的日志数据源,分布式消费易于扩展,可同时将数据提供给hdfs、storm、监控软件等等。

应用监控

Kafka可用于监控运行中的应用系统。如收集分布式应用的数据进行聚合计算,进行分析检测异常情况。

个人感觉,本质和网站行为分析异常监控有异曲同工之处,只不过所监控的数据对象不同罢了。

结束

利用两周末学习总结了大数据中常用的消息队列服务-Kafka。本篇主要从架构角度介绍。个人感觉,介绍系统架构比操作实战更加困难,文章如有错误,请帮忙请指正。

【大数据开发学习资料领取方式】:加入大数据技术学习交流群458345782,点击加入群聊,私信管理员即可免费领取

猜你喜欢

转载自blog.csdn.net/haotian1685/article/details/90048841