type
status
date
slug
summary
tags
category
icon
password

第 1 章 Kafka 概述

1.1定义

notion image

1.2 消息队列

目前企业中比较常见的消息队列产品主要有Kafka、ActiveMQ、RabbitMQ、RocketMQ 等。
在大数据场景主要采用 Kafka 作为消息队列。在 JavaEE 开发中主要采用 ActiveMQ、
RabbitMQ、RocketMQ。

1.2.1 传统消息队列的应用场景

传统的消息队列的主要应用场景包括:缓存/消峰、解耦和异步通信。
缓冲/消峰:有助于控制和优化数据流经过系统的速度,解决生产消息和消费消息的处理速度不一致的情况。
notion image
解耦:允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。
notion image
异步通信:允许用户把一个消息放入队列,但并不立即处理它,然后在需要的时候再去处理它们。
notion image

1.2.2 消息队列的两种模式

1)点对点模式

notion image

2)发布/订阅模式

notion image

1.3 Kafka基础架构

notion image
(1)Producer:消息生产者,就是向 Kafka broker 发消息的客户端。
(2)Consumer:消息消费者,向 Kafka broker 取消息的客户端。
(3)Consumer Group(CG):消费者组,由多个 consumer 组成。消费者组内每个消
费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不
影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。
(4)Broker:一台 Kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个
broker 可以容纳多个 topic。
(5)Topic:可以理解为一个队列,生产者和消费者面向的都是一个 topic。
(6)Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服
务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列。
(7)Replica:副本。一个 topic 的每个分区都有若干个副本,一个 Leader 和若干个
Follower。
(8)Leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数
据的对象都是 Leader。
(9)Follower:每个分区多个副本中的“从”,实时从 Leader 中同步数据,保持和
Leader 数据的同步。Leader 发生故障时,某个 Follower 会成为新的 Leader。

第 2 章 Kafka 快速入门

2.1 安装部署

1)解压安装包
[atguigu@hadoop102 software] tar -zxvf kafka_2.12-3.0.0.tgz -C
/opt/module/
2)修改解压后的文件名称
[atguigu@hadoop102 module] mv kafka_2.12-3.0.0/ kafka
3)进入到/opt/module/kafka 目录,修改配置文件
[atguigu@hadoop102 kafka] cd config/
[atguigu@hadoop102 config]$ vim server.properties
输入以下内容:
4)分发安装包
[atguigu@hadoop102 module] xsync kafka/
5)分别在 hadoop103 和 hadoop104 上修改配置文件/opt/module/kafka/config/server.properties中的 broker.id=1、broker.id=2
注:broker.id 不得重复,整个集群中唯一。
6)配置环境变量
(1)在/etc/profile.d/my_env.sh 文件中增加 kafka 环境变量配置
[atguigu@hadoop102 module] sudo vim /etc/profile.d/my_env.sh
增加如下内容:
(2)刷新一下环境变量。
[atguigu@hadoop102 module] source /etc/profile
(3)分发环境变量文件到其他节点,并 source。
7)启动集群
(1)先启动 Zookeeper 集群,然后启动 Kafka。
[atguigu@hadoop102 kafka] zk.sh start
(2)依次在 hadoop102、hadoop103、hadoop104 节点上启动 Kafka。
注意:配置文件的路径要能够到 server.properties。
8)关闭集群

2.2 Kafka命令行操作

1)查看当前服务器中的所有 topic

2)创建 topic

选项说明:
--topic 定义 topic 名
--replication-factor 定义副本数
--partitions 定义分区数

3)删除 topic

需要 server.properties 中设置 delete.topic.enable=true 否则只是标记删除。

4)发送消息

5)消费消息

显示警告:
Using the ConsoleConsumer with old consumer is deprecated and will be removed in a future major release. Consider using the new consumer by passing [bootstrap-server] instead of [zookeeper].
  • -zookeeper hadoop102:2181将被移除,建议使用 bootstrap-server
  • -from-beginning:会把主题中以往所有的数据都读取出来。

6)查看某个 Topic 的详情

7)修改分区数

kafka 各个对象连接的端口
生产者生产消息: --brock-list hadoop102:9092
kafka管理信息(增删查改):--zokeeper hadoop102:2181
消费者管理消息:--zookeeper hadoop102:2181
( 显示警告:
Using the ConsoleConsumer with old consumer is deprecated and will be removed in a future major release. Consider using the new consumer by passing [bootstrap-server] instead of [zookeeper].
  • -zookeeper hadoop102:2181将被移除,建议使用 bootstrap-server )
  • -bootstrap-server hadoop102:9092
Flume学习笔记Zookeeper学习笔记
y
y
一个普通的干饭人🍚
公告
type
status
date
slug
summary
tags
category
icon
password
🎉欢迎每位读者🎉
-- 感谢您的支持 ---