flume+kafka使用

1、下载flume的安装包,解压至任一路径。

2、搭建kafka集群。

3、配置flume的配置文件,将其命名为kafka.conf,如下。

agent.sources.s1.type = spooldir
agent.sources.s1.spoolDir = /tmp/cdz/log
agent.sources.s1.fileHeader = false
agent.sources.s1.channels=c1

#agent.sources.s1.type=exec
#agent.sources.s1.command=tail -F /tmp/cdz/log/test.log
#agent.sources.s1.channels=c1


agent.channels.c1.type=memory
agent.channels.c1.capacity=10000
agent.channels.c1.transactionCapacity=100

agent.sinks.k1.type= org.apache.flume.sink.kafka.KafkaSink
agent.sinks.k1.brokerList=1.2.3.4:9092,1.2.3.5:9092
agent.sinks.k1.topic=cdz_test
agent.sinks.k1.serializer.class=kafka.serializer.StringEncoder
agent.sinks.k1.channel=c1

agent.channels = c1
agent.sources = s1
agent.sinks = k1

4、指定运行flume。

sh bin/flume-ng agent --conf ./conf --conf-file ./conf/kafka.conf --name agent -Dflume.root.logger=INFO,console -Dflume.monitoring.type=http -Dflume.monitoring.port=34545

5、把任意文件放到spoolDir后,flume将会采集并发送至kafka。

6、消费即可看到flume采集的数据。

bin/kafka-console-consumer.sh --zookeeper 99.12.73.208:2181 --topic cdz_test

发布了65 篇原创文章 · 获赞 30 · 访问量 18万+

猜你喜欢

转载自blog.csdn.net/i792439187/article/details/52784788