EFK搭建——收集日志,快速指南

环境准备

centos7【最小化,运行和核心数都为2】
192.168.112.153
jdk, zookeeper, kafka, filbeat, elasticsearch
192.168.112.154
jdk, zookeeper, kafka, filebeat,logstash
192.168.112.155
jdk, zookeeper, kafka, filbebeat,kibana
同步时间——命令
yum -y install ntpdate
ntpdate -u ntp.aliyun.com

1. 关闭防火墙 selinux

systemctl stop firewalld
setenforce 0

2. 修改主机名称

hostnamectl set-hostname kafka01
hostnamectl set-hostname kafka02
hostnamectl set-hostname kafka03

3. 修改vim /etc/hosts文件

192.168.112.153 kafka01
192.168.112.154 kafka02
192.168.112.155 kafka03

4. 安装jdk

rpm -ivh jdk-8u131-linux-x64_.rpm

5. 安装zookeeper

tar xzf zookeeper-3.4.14.tar.gz

6. 改名移动

mv zookeeper-3.4.14 /usr/local/zookeeper
进入目录,修改配置文件名
cd /usr/local/zookeeper/conf/
mv zoo_sample.cfg zoo.cfg

7. 修改配置文件

tickTime=2000 # zk服务器之间的心跳时间
initLimit=10 # zk连接失败的时间
syncLimit=5 # zk的同步通信时间
dataDir=/tmp/zookeeper #zk的数据目录
clientPort=2181 # zk的监听端口号

server.1=192.168.112.153:2888:3888 
server.2=192.168.112.154:2888:3888
server.3=192.168.112.155:2888:3888

# 服务器编号,2888:通信端口 3888: 选举端口

7. 创建myid文件

mkdir /tmp/zookeeper
kafka01:
echo “1” > /tmp/zookeeper/myid
kafka02:
echo “2” > /tmp/zookeeper/myid
kafka03:
echo “3” > /tmp/zookeeper/myid

8. 开启zk服务

/usr/local/zookeeper/bin/zkServer.sh start
验证服务转态
/usr/local/zookeeper/bin/zkServer.sh status
Mode: follower
Mode: leader
端口验证
ss -nlpt|grep java 【2888/3888】
在这里插入图片描述
补充说明——
1、2181:对cline端提供服务

2、3888:选举leader使用

3、2888:集群内机器通讯使用

9. 安装kafka

tar xf kafka_2.11-2.2.0.tgz
移动/重命名
mv kafka_2.11-2.2.0 /usr/local/kafka

10. 进入目录编辑配置文件

cd /usr/local/kafka/ config/
vim server.properties
kafka01:
broker.id=0
advertised.listeners=PLAINTEXT://kafka01:9092
zookeeper.connect=192.168.112.153:2181,192.168.112.154:2181,192.168.112.155:2181
kafka02:
broker.id=1
advertised.listeners=PLAINTEXT://kafka02:9092
zookeeper.connect=192.168.112.153:2181,192.168.112.154:2181,192.168.112.155:2181
kafka03:
broker.id=2
advertised.listeners=PLAINTEXT://kafka03:9092
zookeeper.connect=192.168.112.153:2181,192.168.112.154:2181,192.168.112.155:2181

11. 开启kafka 服务

/usr/local/kafka/bin/kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties
验证
ss -nlpt | grep 9092
端口验证图

12. 创建topic 【一台创建模拟生产,一台模拟消费】

/usr/local/kafka/bin/kafka-topics.sh --create --zookeeper 192.168.112.153:2181 --replication-factor 2 --partitions 3 --topic wg007

查看当前的topic

/usr/local/kafka/bin/kafka-topics.sh  --list  --zookeeper 192.168.112.136:2181

模拟生产者

 /usr/local/kafka/bin/kafka-console-producer.sh --broker-list 192.168.1.7:9092 --topic wg007

模拟消费者

/usr/local/kafka/bin/kafka-console-consumer.sh --bootstrap-server 192.168.112.153:9092 --topic  wg007 --from-beginning

13. 安装服务 【192.168.112.153端】

rpm -ivh filebeat-6.8.12-x86_64.rpm
编辑配置文件
cd /etc/filebeat/
mv filebeat.yml filebeat.yml.bat
vim filebeat.yml

filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /var/log/messages

output.kafka:
  enabled: true
  hosts: ["192.168.112.153:9092","192.168.112.154:9092","192.168.112.155:9092"]
  topic: msg

启动服务
systemctl start filebeat

14. 查看列表

/usr/local/kafka/bin/kafka-topics.sh--list--zookeeper192.168.112.153:2181

__consumer_offsets
msg
wg007

15. 安装elasticsearch

rpm -ivh elasticsearch-6.6.2.rpm
修改配置文件,启动服务
systemctl start elasticsearch
验证端口
ss -nlpt |grep java 【9200/9300】
Java端口

16. 安装服务 【192.168.112.154端】

rpm -ivh logstash-6.6.0.rpm
编辑配置文件
vim /etc/logstash/conf.d/msg.conf

input{
    
    
        kafka{
    
    
                bootstrap_servers => ["192.168.112.153:9092,192.168.112.154:9092,192.168.112.155:9092 "]
                group_id => "logstash"
                topics => "msg"
                consumer_threads => 5
        }
}
output{
    
    
        elasticsearch{
    
    
                        hosts => "192.168.112.153:9200"
                        index => "msg_log-%{+YYYY.MM.dd}"
                }

17. 启动服务

systemctl start logstash
验证端口
ss -nlpt | grep 9600

端口验证图

18. 安装服务 【192.168.112.155端】

rpm -ivh kibana-6.6.2-x86_64.rpm
编辑配置文件
vim /etc/kibana/kibana.yml
第二行端口 ——5601
第七行本机ip ——192.168.112.155
第二十七行es的ip ——192.168.112.153
启动服务
systemctl start kibana
验证端口
ss -nlpt | grep 5601
在这里插入图片描述

没有index 怎么办?【有filebeat端操作/153】

1: chmod 777
2: echo “test” >> /var/log/messages

最后验证消费

/usr/local/kafaka/bin/kafka-console-consumer.sh --bootstrap-server 192.168.112.153:9092 --topic msg --from-beginning

查看索引的日志

tailf /var/log/filebeat/filebeat
在这里插入图片描述

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qing1912/article/details/108671832