elasticsearch+logstash+kibana收集日志配置

1.安装elasticsearch、logstash、kibana,我测试时是WINDOWS,所以都下载的对应WINDOWS版本。

2.配置日志文件路径

logging.file=E://log/server.log

3.启动elasticsearch,直接在解压后的bin目录下运行elasticsearch.bat即可

4.在logstash的bin文件夹下新建配置文件logstash.conf,内容如下

input {
    beats {
        port => "5044"
    }
    file {
        type => "my_app"
        path => "E:\log\server.log"
    }
}

filter {
    grok {
        match => { "message" => "(\s*%{TIMESTAMP_ISO8601:time} \s*%{LOGLEVEL:level}\s*%{NUMBER:lineNumber} ---\s*(?<class>(\[.*?\].*:) )\s*(?<message>[\s\S]* ))"}
    }
}

output {
    stdout {codec => rubydebug}
    elasticsearch {
        hosts => ["localhost:9200"] 
        index => "log"
    }
}

input指定输入方式。这里是文件

filter指定过滤方式,这里是用grok过滤,具体语法请参考其他文章,grok表达式写好后,可以用这个网址测试http://grok.qiexun.net

output指定输出 ,这里是本地的elasticsearch。

配置好后保存文件,在cmd下进入bin目录,运行logstash -f  logstash.conf,启动logstash

5.kibana下载解压后在 config下有 kibana.yml文件,指定elasticsearch地址之后,运行kibana.bat即可

elasticsearch.url: "http://localhost:9200"

猜你喜欢

转载自www.cnblogs.com/zhuyuehua/p/9415591.html