Kafka2.10安装和集群搭建


1.安装前准备

jdk1.8.0_171
kafka_2.10-0.10.0.0.tgz
将压缩包解压至kafka用户目录.


2.配置文件

  • config/server.properties
#修改一下几项,其他不动
#唯一标识,集群内各个broker.id不能重复
broker.id=0 

#端口号
port=9092

#日志文件目录
log.dirs =/home/kafka/logs

#zk连接地址
zookeeper.connect=192.168.163.101:2181,192.168.163.102:2181,192.168.163.103:2181

#是否真实删除主题.默认false
delete.topic.enable=true 

修改完成后发送至各个节点.


3.启动

nohup bin/kafka-server-start.sh config/server.properties &

4.简单测试

  • 创建主题
#replication-factor指的是数据文件副本数
bin/kafka-topics.sh --create --zookeeper 192.168.163.101:2181 --replication-factor 2 --partitions 1 --topic test
  • 列出所有主题
bin/kafka-topics.sh --list --zookeeper 192.168.163.101:2181
  • 启动生产任务(自带脚本)
bin/kafka-console-producer.sh --broker-list 192.168.163.101:9092,192.168.163.102:9092,192.168.163.103:9092 --topic test
  • 启动消费任务(自带脚本)
bin/kafka-console-consumer.sh --zookeeper 192.168.163.101:2181 --topic test

在生产端输入消息后,会在消费端打印出来.


猜你喜欢

转载自www.cnblogs.com/guan-li/p/9917043.html