centos7安装kafka

image-20191031202354073

Kafka 是一个分布式的基于发布/订阅模式的消息队列,其订阅者的消费类型为主动拉取的模式。

概念:

1)Broker :即一个正在运行中的kafka服务进程。一个集群由多个 broker 组成。由于broker是无状态的,所以需要通过zookeeper来维护集群状态。
2)Producer :消息生产者,就是向broker发送topic的客户端;
3)Consumer :消息消费者,向broker的topic中拉取数据的客户端;
4)Consumer Group (CG):消费者组,由多个 consumer 组成。组内的消费者共同消费某个主题里的所有分区数据(注意是共同消费而非独立消费),组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内的其中一个消费者消费(但该分区可以被其他组的消费者消费);消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。
5)Topic :可以理解为一个队列,生产者和消费者面向的都是一个 topic;
6)Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列;
7)Replica:副本,为保证集群中的某个节点发生故障时,该节点上的 partition 数据不丢失,且 kafka 仍然能够继续工作,kafka 提供了副本机制,一个 topic 的每个分区都有若干个副本,一个 leader 和若干个 follower。
8)leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是 leader。
9)follower:每个分区多个副本中的“从”,实时从 leader 中同步数据,保持和 leader 数据的同步。leader 发生故障时,某个 follower 会成为新的 follower。

一、安装

前提条件:安装kafka之前需要有java环境。

1
2
3
4
5
6
su root
wget https://archive.apache.org/dist/kafka/0.11.0.0/kafka_2.11-0.11.0.0.tgz
tar -zxvf kafka_2.11-0.11.0.0.tgz -C /usr/local/
mv /usr/local/kafka_2.11-0.11.0.0/ /usr/local/kafka
cd /usr/local/kafka
mkdir logs

二、配置kafka

1
vim config/server.properties
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
#broker 的全局唯一整形id,集群下该值注意不能重复
broker.id=0
#删除 topic 功能使能
delete.topic.enable=true
# 允许外部端口连接
listeners=PLAINTEXT://0.0.0.0:9092
# 外部代理地址(服务器物理机对外ip)
advertised.listeners=PLAINTEXT://10.223.117.77:9092
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘 IO 的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka 运行日志存放的路径
log.dirs=/usr/local/kafka/logs
#topic 在当前 broker 上的分区个数
num.partitions=1
#用来恢复和清理 data 下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment 文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接 Zookeeper 集群地址
zookeeper.connect=127.0.0.1:2181
#zookeeper.connect=192.168.1.10:2181,192.168.1.11:2181,192.168.1.13:2181

三、常用命令

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
cd /opt/kafka/kafka_2.11-0.11.0.0

#以守护进程启动
bin/kafka-server-start.sh -daemon config/server.properties

#关闭
bin/kafka-server-stop.sh config/server.properties


# 查看当前服务器中的所有 topic
bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --list


# 创建 topic(topic里有分区,有主题)
# --topic:主题的名字
# --zookeeper: 注册中心的地址
# --replication-factor:副本数
# --partitions:分区数
bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --create --topic appServerLoginForced --replication-factor 1 --partitions 1


#删除topic
bin/kafka-topics.sh --delete --zookeeper 127.0.0.1:2181 --topic appServerLoginForced

#测试
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic appServerLoginForced --from-beginning
bin/kafka-console-producer.sh --broker-list localhost:9092 --topic appServerLoginForced


----------- 本文结束 -----------




如果你觉得我的文章对你有帮助,你可以打赏我哦~
0%