Kafka 安装
# Kafka 安装
Kafka 不依赖于 hadoop 运作 只依赖 zookeeper 运行
要先事先安装好 zookeeper 并运行
http://kafka.apache.org/downloads
tar -zxvf kafka_2.11-2.4.1.tgz -C /opt/module/
cd /opt/module/
mv kafka_2.11-2.4.1/ kafka
cd kafka
mkdir logs
#环境变量
sudo vim /etc/profile.d/my_env.sh
#KAFKA_HOME
export KAFKA_HOME=/opt/module/kafka
export PATH=$PATH:$KAFKA_HOME/bin
source /etc/profile.d/my_env.sh
1
2
3
4
5
6
7
8
9
10
11
12
13
14
2
3
4
5
6
7
8
9
10
11
12
13
14
配置 kafka
vim /opt/module/kafka/config/server.properties
1
#broker的全局唯一编号,不能重复
broker.id=0
#删除topic功能使能
delete.topic.enable=true
#处理网络请求的线程数量
num.network.threads=3
#用来处理磁盘IO的现成数量
num.io.threads=8
#发送套接字的缓冲区大小
socket.send.buffer.bytes=102400
#接收套接字的缓冲区大小
socket.receive.buffer.bytes=102400
#请求套接字的缓冲区大小
socket.request.max.bytes=104857600
#kafka运行日志存放的路径
log.dirs=/opt/module/kafka/logs
#topic在当前broker上的分区个数
num.partitions=1
#用来恢复和清理data下数据的线程数量
num.recovery.threads.per.data.dir=1
#segment文件保留的最长时间,超时将被删除
log.retention.hours=168
#配置连接Zookeeper集群地址
zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181/kafka
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
分发环境变量和 kafka
sudo xsync /opt/module/kafka
sudo xsync /etc/profile.d/my_env.sh
1
2
2
修改每个 kafka 中 broker.id
vim /opt/module/kafka/config/server.properties
#102 为 2, 103为3 , 104为4
1
2
2
启动
kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties #每台机器单独起
kafka-server-stop.sh #关闭
1
2
3
2
3
群起脚本 记得先启动 zookeeper
sudo vim /bin/kafkalist.sh
for i in `cat /opt/module/hadoop-3.1.3/etc/hadoop/workers`
do
echo "========== $i =========="
ssh $i 'kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties'
echo $?
done
sudo chmod +x /bin/kafkalist.sh
1
2
3
4
5
6
7
8
9
10
11
2
3
4
5
6
7
8
9
10
11
如果遇 kafka 闪退 可以尝试删除 logs 文件夹下的内容
查看 zookeeper 中是否有 kafka id 已经记录
zkCli.sh
ls /kafka/brokers/ids
1
2
2
编辑 (opens new window)
上次更新: 2023/12/06, 01:31:48