01——ELK日志系统——升级版(加入kafka消息中间件)

  前言:以前搭了个简单的ELK日志系统,以我个人的感觉来说,ELK日志系统还是非常好用的。以前没有弄这个ELK日志系统的时候,线上的项目出了bug,报错了,要定位错误是什么,错误出现在哪个java代码文件里,每次都要在服务器上使用linux命令打开日志文件查看错误,简直繁琐无比。

  搭了这个ELK日志系统之后,项目中的所有日志打印都发送到了ELK里面,然后通过ELK中的kibana视图界面 搜索 或 查看  各个时间段的日志,以及什么级别的日志,巨方便。

  当然上次搭建的ELK日志系统只是个简单的,今天打算把消息中间件kafka整合到ELK日志系统里。

》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

目前还是借鉴这位老哥的博客,搭建一个高并发场景的ELK日志系统:https://blog.csdn.net/qq_22211217/article/details/80764568,最后搭建高并发ELK日志系统流程图如下:

扫描二维码关注公众号,回复: 6294027 查看本文章

1、先说说整个ELK日志系统的流程

  

 2、开始搭建ELK日志系统

  2.1、准备工作:

      先准备3台机器:我的分别如下:

        192.168.2.115

        192.168.2.116

        192.168.2.119

  • 3台机器上都要配置jdk环境,因为elasticsearch是java开发的
  • 3台机器上也全要安装elasticsearch,因为现在要搭建elasticsearch分布式集群,所以3台机器都要装
  • 我用192.168.2.119作es的主节点,192.168.2.115、192.168.2.116作为数据节点
  • 在主节点上安装kibana,192.168.2.115上安装logstash

  ELK使用的版本:elk所有安装包都在官网下载到

    

 

 

3、ELK日志系统第一步:安装elasticsearch

  3.1、目前我把elasticsearch-6.4.2.tar.gz安装包都放在三台机器的/usr/local/dev/es目录下,并解压

  3.2、开始配置elasticsearch集群

    3.2.1、配置192.168.2.119主节点上的elasticsearch配置文件

#打开elasticsearch的配置文件
vi elasticsearch-6.4.2/config/elasticsearch.yml

    配置内容如下:

#集群中的名称
cluster.name: master-node 

#该节点名称
node.name: master 

#意思为该节点为主节点
node.master: true

#表示这不是数据节点
node.data: false

#监听全部ip,在实际环境中应设置为一个安全的ip
network.host: 0.0.0.0

#Elasticsearch服务的端口号
http.port: 9200

#配置自动发现
discovery.zen.ping.unicast.hosts: ["192.168.2.119", "192.168.2.115", "192.168.2.116"]

    

192.168.2.119服务器主节点上的elasticsearch配置文件效果图:

    3.2.2、配置192.168.2.115节点上的elasticsearch配置内容:

#该节点名称
node.name: data-node1

#意思为该节点为主节点
node.master: false

#表示这不是数据节点
node.data: true

   3.2、3台服务器的elasticsearch都配置好了,现在来启动一下主节点192.168.2.119上的elasticsearch:

  

#启动命令
./elasticsearch-6.4.2/bin/elasticsearch

    啊哦,启动报错!!!!!!!!!!!!

    报错的原因:就是必须要再创建一个用户去操作elasticsearch,不能直接用root用户操作。

下班,明天断续。。。。

放牛咯!

猜你喜欢

转载自www.cnblogs.com/spll/p/10938922.html
今日推荐