SpringBoot整合ELK实现日志收集

java1234

共 11261字,需浏览 23分钟

 ·

2021-03-03 11:00

点击上方蓝色字体,选择“标星公众号”

优质文章,第一时间送达

76套java从入门到精通实战课程分享

ELK简介

ELK是三个开源软件的缩写,分别表示:elasticsearchlogstashkibana

Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。

Logstash是一个完全开源的工具,他可以对你的日志进行收集、过滤,并将其存储供以后使用(如,搜索)。

Kibana也是一个开源和免费的工具,它Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志。

实现日志收集的方案

方案一:logstash->elasticsearch->kibana

将logstash部署到每个节点,收集相关的日志,并经过分析过滤后发送到elasticsearch进行存储,elasticsearch将数据以分片的形势进行压缩存储,通过kibana对日志进行图形化的展示。

优点:此架构搭建简单,容易上手

缺点:

- 1、每个节点部署logstash,运行时占用CPU,内存大,会对节点性能造成一定的影响

- 2、没有将日志数据进行缓存,存在丢失的风险

方案二:logstash->kafka->elasticsearch->kibana

logstash agent监控过滤日志,将过滤的日志内容发送给Kafka,logstash server将日志收集一起交给elasticsearch,引入了消息队列机制作为缓存池,即使logstash server出现异常,由于日志暂存在kafka消息队列中,能避免日志数据丢失,但是还是没有解决性能问题。

这次选择的是第一种方案,比较简单,容易理解

使用docker compose搭建ELK环境

下载docker镜像

docker pull elasticsearch:6.4.0
docker pull logstash:6.4.0
docker pull kibana:6.4.0

在本地创建好存放文件的目录

创建elasticsearch和logstash目录,后面用于存放配置文件

logstash.conf的内容:

input {
  tcp {
    mode => "server"
    host => "0.0.0.0"
    port => 4560
    codec => json_lines
  }
}
output {
  elasticsearch {
    hosts => "es:9200"
    index => "springboot-%{+YYYY.MM.dd}"
  }
}

使用docker-compose.yml脚本启动ELK服务

docker-compose.yml的内容为:

version: '3'
services:
  elasticsearch:
    image: elasticsearch:6.4.0
    container_name: elasticsearch
    environment:
      - "cluster.name=elasticsearch" #设置集群名称为elasticsearch
      - "discovery.type=single-node" #以单一节点模式启动
      - "ES_JAVA_OPTS=-Xms512m -Xmx512m" #设置使用jvm内存大小
    volumes:
      - /Users/mango/Downloads/install/docker/elk/elasticsearch/plugins:/usr/share/elasticsearch/plugins #插件文件挂载
      - /Users/mango/Downloads/install/docker/elk/elasticsearch/data:/usr/share/elasticsearch/data #数据文件挂载
    ports:
      - 9200:9200
      - 9300:9300
  kibana:
    image: kibana:6.4.0
    container_name: kibana
    links:
      - elasticsearch:es #可以用es这个域名访问elasticsearch服务
    depends_on:
      - elasticsearch #kibana在elasticsearch启动之后再启动
    environment:
      - "elasticsearch.hosts=http://es:9200" #设置访问elasticsearch的地址
    ports:
      - 5601:5601
  logstash:
    image: logstash:6.4.0
    container_name: logstash
    volumes:
      - /Users/mango/Downloads/install/docker/elk/logstash/logstash.conf:/usr/share/logstash/pipeline/logstash.conf #挂载logstash的配置文件
    depends_on:
      - elasticsearch #kibana在elasticsearch启动之后再启动
    links:
      - elasticsearch:es #可以用es这个域名访问elasticsearch服务
    ports:
      - 4560:4560

在该文件的目录下执行docker-compose命令运行:

docker-compose up -d

之后显示如下内容:

在logstash中安装json_lines插件

# 进入logstash容器(e9c845c8d48e为容器id)
docker exec -it e9c845c8d48e /bin/bash
# 进入bin目录
cd /bin/
# 安装插件
logstash-plugin install logstash-codec-json_lines
# 退出容器
exit
# 重启logstash服务
docker restart logstash

查看界面

访问地址:http://127.0.0.1:9200/

访问地址:http://127.0.0.1:5601

Springboot集成logstash

在pom.xml中添加logstash-logback-encoder依赖

<!--集成logstash-->
<dependency>
    <groupId>net.logstash.logback</groupId>
    <artifactId>logstash-logback-encoder</artifactId>
    <version>5.3</version>
</dependency>

添加配置文件logback-spring.xml让logback的日志输出到logstash

<?xml version="1.0" encoding="UTF-8"?>
<!--该日志将日志级别不同的log信息保存到不同的文件中 -->
<configuration>
    <include resource="org/springframework/boot/logging/logback/defaults.xml" />

    <springProperty scope="context" name="springAppName"
                    source="spring.application.name" />

    <!-- 日志在工程中的输出位置 -->
    <property name="LOG_FILE" value="${BUILD_FOLDER:-build}/${springAppName}" />

    <!-- 控制台的日志输出样式 -->
    <property name="CONSOLE_LOG_PATTERN"
              value="%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}}" />

    <!-- 控制台输出 -->
    <appender name="console" class="ch.qos.logback.core.ConsoleAppender">
        <filter class="ch.qos.logback.classic.filter.ThresholdFilter">
            <level>INFO</level>
        </filter>
        <!-- 日志输出编码 -->
        <encoder>
            <pattern>${CONSOLE_LOG_PATTERN}</pattern>
            <charset>utf8</charset>
        </encoder>
    </appender>

    <!-- 为logstash输出的JSON格式的Appender -->
    <appender name="logstash"
              class="net.logstash.logback.appender.LogstashTcpSocketAppender">
        <!--可以访问的logstash日志收集端口-->
        <destination>127.0.0.1:4560</destination>
        <!-- 日志输出编码 -->
        <encoder
                class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
            <providers>
                <timestamp>
                    <timeZone>UTC</timeZone>
                </timestamp>
                <pattern>
                    <pattern>
                        {
                        "severity""%level",
                        "service""${springAppName:-}",
                        "trace""%X{X-B3-TraceId:-}",
                        "span""%X{X-B3-SpanId:-}",
                        "exportable""%X{X-Span-Export:-}",
                        "pid""${PID:-}",
                        "thread""%thread",
                        "class""%logger{40}",
                        "rest""%message"
                        }
                    </pattern>
                </pattern>
            </providers>
        </encoder>
    </appender>

    <!-- 日志输出级别 -->
    <root level="INFO">
        <appender-ref ref="console" />
        <appender-ref ref="logstash" />
    </root>

</configuration>

在kibana中查看日志信息

创建index pattern

配置 pattern 输入springboot-*,匹配相关数据。

选择时间@timestamp,这样数据展示会以时间排序

查看收集的日志

启动我们的项目就可以看到启动日志已经输出到elasticsearch中了:

点击discover:

总结

搭建了ELK日志系统后,我们就可以直接在kibana上看系统的日志了,还可以进行搜索

参考资料

https://juejin.im/post/6844903784632549390

https://juejin.im/post/6844904008499331079



版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

本文链接:

https://blog.csdn.net/MCmango/article/details/114022493




锋哥最新SpringCloud分布式电商秒杀课程发布

👇👇👇

👆长按上方微信二维码 2 秒





感谢点赞支持下哈 

浏览 21
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报