Kafka框架的工作原理及工作流程,kafka工作原理 2024-02-08 05:28:31 0 0 描述 Kafka在大数据技术生态当中,以作为消息系统而闻名,面对活跃的流式数据,提供高吞吐量的服务,在实时大数据处理场景下,可以说是一大利器,国内外大厂都有应用。今天的大数据开发技术分享,我们就主要来讲讲Kafka框架的工作原理。 Kafka概述 官方定义,Kakfa是一个分布式的基于发布/订阅模式的消息队列,主要应用于大数据的实时处理领域。 通常来说,消息队列的模式分为两种: ①点对点模式:消息生产者发送消息到消息队列中,然后消息消费者从队列中取出并且消费消息,消息被消费后,队列中不在存储。 ②发布/订阅模式(一对多,消费者消费数据之后不会清除消息):消息生产者将消息发布到Topic中,同时有多个消息消费者(订阅)消费该消息。 Kafka就是典型的发布/订阅模式,更加适用于实时大数据场景下的消息服务。 Kafka基础架构 Kafka的基础架构主要有Broker、生产者、消费者组构成,当前还包括ZooKeeper。 生产者负责发送消息,Broker负责缓冲消息,Broker中可以创建Topic,每个Topic又有Partition和Replication的概念。 消费者组负责处理消息,同一个消费者组的消费者不能消费同一个Partition中的数据。 消费者组主要是提高消费能力,比如之前是一个消费者消费100条数据,现在是2个消费者消费100条数据,可以提高消费能力。 所以消费者组的消费者的个数要小于Partition的个数,不然就会有消费者没有Partition可以消费,造成资源的浪费。 注意:不同消费者组的消费者是可以消费相同的Partition数据。 Kakfa如果要组件集群,则只需要注册到一个ZooKeeper中就可以了,ZooKeeper中还保留消息消费的进度或者说偏移量或者消费位置: 0.9之前的版本偏移量存储在ZooKeeper。 0.9之后的版本偏移量存储在Kafka中。Kafka定义了一个系统Topic,专用用来存储偏移量的数据。这样做主要是考虑到频繁更改偏移量,对ZooKeeper的压力较大,而且Kafka本身自己的处理也较复杂。 Kafka不能保证消息的全局有序,只能保证消息在Partition内有序,因为消费者消费消息是在不同的Partition中随机的。 Kafka工作流程 Kafka中的消息是以Topic进行分类的,生产者生成消息、消费者消费消息都面向Topic。 Topic是一个逻辑上的概念,而Partition是物理上的概念。每个Partition又有副本的概念。 每个Partition对应于一个Log文件,该Log文件中存储的就是生产者生成的数据,生产者生成的数据会不断的追加到该Log的文件末端。 且每条数据都有自己的Offset,消费者都会实时记录自己消费到了那个Offset,以便出错的时候从上次的位置继续消费,这个Offset就保存在Index文件中。 Kafka的Offset是分区内有序的,但是在不同分区中是无顺序的,Kafka不保证数据的全局有序。 关于大数据开发,Kafka工作原理入门,以上就为大家做了简单的介绍了。Kafka在大数据技术生态当中,普及度是非常高的,尤其是拥有丰富数据资源的企业,更加青睐于使用kafka。 责任编辑人:CC 收藏(0)