热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Web服务http日志收集

Web服务http日志收集,Go语言社区,Golang程序员人脉社

目录

需求场景:

架构设计:

端口号:

准备资源:

Linux版本:

准备Java环境

ElasticSearch:

下载安装

配置:

启动:

Zookeeper

下载安装:

配置:

启动:

Kafka

下载安装:

配置:

启动命令:

准备和调试:

Logstash:

下载安装:

配置:

logstash服务配置:

被监听的服务配置:

启动命令:

Kibana:

下载安装:

配置:

启动

操作:

案例:

Web服务代码改造:

集成Kafka:

pom.xml添加依赖:

 添加kafka的配置:

 利用切面捕获入库信息:

需要注意的细节:


需求场景:

目前已经运行了一个JavaWeb应用,需要能自定义收集http的request和response,做到报文可追溯,可统计,方便查询,同时不能对现有web服务的http请求造成影响。

 

架构设计:

1 利用AOP获取controller层的reqeust和response,并根据自定义要求做Json序列化

2 AOP获取的内容发送到Kafka,利用MQ的特性,减少对http请求造成的延时

3 LogStash从Kafka中消费Json信息,对内容清洗后按照规则发送给不同的es索引

4 ElasticSearch存储内容

5 三种方式检索es中的内容:

 第一种:在服务器中搭建Kibana,所有用户利用该Kibana来操作es;(推荐)

 第二种:curl直接操作es

 第三种:客户端本地安装Kibana,利用客户端Kibana来操作es

 

端口号:

9200:ElasticSearch的端口

9092:Kafka的端口

2181:ZooKeeper的端口

5601: Kibana的端口

这些端口号是组建默认的端口,可以根据自己的需要进行配置,如果云平台有安全组限制或者实例中有防火墙的限制,需要打开它们。

准备资源:

几个控件可以分开安装,也可装在一台机器上,建议初期都在一台里,网络传输消耗少。

本篇重在介绍如何把它们串联起来,所有控件先只做单节点,而且这些控件集群配置相对都很简单,在以前的博客中都有介绍过。

最低配置:需要4核8G,或者两台2核4G的也可以。

AWS中最低是C4.xlarge 推荐C4.2xlarge

 

Linux版本:

CentOS-7-x86_64-GenericCloud-1802(小版本号无要求,centos7即可)

Jdk:jdk-8u171-linux-x64.tar.gz(小版本号无要求,jdk8即可)

Centos用户,如果是新机器需要重设下密码:

$sudo passwd centos

 

准备Java环境

Jdk:jdk-8u171-linux-x64.tar.gz
配置java环境
$vi ~/.bashrc
export JAVA_HOME=/opt/jdk/jdk1.8.0_171
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
$source ~/.bashrc

ElasticSearch:

下载安装

$wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.6.1.zip

$unzip elasticsearch-5.6.1.zip

最好安装一个中文插件(如果是纯英文场景可以跳过此步骤)

wget https://github.com/yejingtao/forblog/raw/master/ik/elasticsearch-analysis-ik-5.6.1.zip

中文插件的原因和使用方式:

https://blog.csdn.net/yejingtao703/article/details/78392902

配置:

涉及到的配置文件都在config下

1、elasticsearch.yml:elastic结点、集群的配置信息;

2、jvm.options:jvm的配置信息,里面找到默认启动内存是2G,最低可以改成512m

3、log4j2.properties:elastic的log的配置文件。

 

需要修改绑定地址,否则es不能被外部访问:

修改config 下的配置文件elasticsearch.yml,将#network.host: 192.168.0.1注释放开,同时修改成你对外的IP

启动:

$cd bin

$./elasticsearch

如果遇到这样的报错:

ERROR: [2] bootstrap checks failed

[1]: max file descriptors [4096] forelasticsearch process is too low, increase to at least [65536]

[2]: max virtual memory areas vm.max_map_count[65530] is too low, increase to at least [262144]

解决问题1:执行下命令ulimit -n 65536

解决问题2:需要修改/etc/sysctl.conf配置文件

echo "vm.max_map_count=262144">>/etc/sysctl.conf

sysctl –p//立刻生效

其中在解决ulimit -n 65536问题是被卡住了,原因是centos用户没有ulimit命令的权限

解决方案:

$sudo vi /etc/security/limits.conf
在配置文件的最后添加6行:
centos soft nproc 16384
centos hard nproc 16384
centos soft nofile 65536
centos hard nofile 65536
centos soft memlock 4000000
centos hard memlock 4000000
保存退出后需要重新切换一次centos用户
$su – centos

在外网的浏览器中确认能访问到elasticSearch(http://ip:9200)就可以确定安装完毕

 

建议做为服务器应用将elasticSearch转为后台运行:

$nohup elasticsearch-5.6.1/bin/elasticsearch &

Zookeeper

Zookeeper是使用Kafka的先决条件

下载安装:

$wget http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz

$gunzip zookeeper-3.4.10.tar.gz

 

配置:

将/conf/下zoo_sample.cfg 重命名为 zoo.cfg

vim zoo.cfg   
dataDir=/tmp/zookeeper  (数据文件)
dataLogDir=/tmp/zookeeperlog (日志文件)

启动:

./bin/zkServer.sh start

2181是zk的默认端口,启动后可以telnet检查下是否启动成功(也可以不检查,因为zk启动失败的话,后面的kafka是不会启动成功的)

 

Kafka

下载安装:

$wget http://mirror.bit.edu.cn/apache/kafka/2.1.1/kafka_2.11-2.1.1.tgz

$gunzip kafka_2.11-2.1.1.tgz

 

配置:

$vi conf/server.properties

#listeners=PLAINTEXT://:9092改成自己的地址

advertised.listeners=PLAINTEXT也要改成外网地址,深坑,否则外面的生产者解析不到kafka的地址。

 

启动命令:

$bin/kafka-server-start.sh config/server.properties

同理上线使用时后台运行

$nohup bin/kafka-server-start.sh config/server.properties &

 

检查Kafka是否启动成功,调用以下命令查询下kafka的topic

$bin/kafka-topics.sh --list --zookeeper {yourip}:2181

 

准备和调试:

创建好topic,给接入代码使用

$bin/kafka-topics.sh --create --zookeeper {yourip}:2181 --replication-factor 1 --partitions 1 --topic httplog

像http日志收集这种应用场景,java代码只做生产者,可以直接用kafka自带的消费者来进行调试,不需要单独开发消费代码。

kafka消费者调测:

$bin/kafka-console-consumer.sh --bootstrap-server {yourip}:9092 --topic httplog

同理,kafka也自带生产者调测工具,这里不再介绍

 

Logstash:

下载安装:

$wget https://artifacts.elastic.co/downloads/logstash/logstash-5.6.3.zip

$unzip logstash-5.6.3.zip

 

配置:

logstash服务配置:

配置文件在HOME/config下

修改logstash.yml

# Bind address for the metrics REST endpoint
#
# http.host: "127.0.0.1"
重新配置http.host

端口:
# Bind port for the metrics REST endpoint, this option also accept a range
# (9600-9700) and logstash will pick up the first available ports.
#
# http.port: 9600-9700

这里注意下就好,主要根据这个端口范围来关心logstash的死活,这里把logstash架在kafka和elasticsearch之间,我们不会通过端口去访问它。

 

被监听的服务配置:

随便一个位置添加一个启动配置文件logstash.conf,建议也是放在logstash的home目录下,内容如下:

input {
  kafka {
    bootstrap_servers => ["10.100.1.142:9092"]
    client_id => "fwapi"
    group_id => "fwapi"
    auto_offset_reset => "latest"
    consumer_threads => 5
    topics => ["httplog"]
    codec => json {
      charset => "UTF-8"
    }
  }
}

filter {
  json{
    source => "message"
    target => "message"
  }
}

output {
  elasticsearch{
    hosts => ["10.100.1.142:9200"]
    index => "httplog-%{+YYYY.MM.dd}"
    timeout => 300
  }
}

启动命令:

$bin/logstash -f logstash.conf

上生产时需要转到后台

$nohup bin/logstash -f logstash.conf &

 

 

Kibana:

下载安装:

https://www.elastic.co/downloads/kibana

下载时请注意Kibana版本要与elasticsearc版本一致,否则会有下面这种坑

 

所以对应上述es版本的kibana安装包是:

https://artifacts.elastic.co/downloads/kibana/kibana-5.6.1-linux-x86_64.tar.gz

 

配置:

修改config/kibana.yml

#elasticsearch.hosts: ["http://localhost:9200"]
改成自己elasticsearch的地址
#server.host: "localhost"
改成自己的kibana地址

启动

$./kibana

上生产时需要后台运行

$ nohup ./kibana &

 

操作:

地址:http://hostname:5601/

Dev Tools里是curl的查询界面,

案例:

具体某一天中某一个接口的请求:GET httplog-2019.02.28/_search

如果按月查询:GET httplog-2019.02.*/_search

按年查询GET httplog-2019.*/_search

全量查询GET /_search

压力监控(QPS):

可以聚合和报表的类型:

 

成品案例:

 

Web服务代码改造:

集成Kafka:

pom.xml添加依赖:


	org.springframework.kafka
	spring-kafka

 添加kafka的配置:

spring.kafka.producer.bootstrap-servers=10.100.129.142:9092
spring.kafka.producer.retries=0
spring.kafka.producer.batch-size=4096
spring.kafka.producer.buffer-memory=40960
package com.fw.tester.config;

import java.util.HashMap;
import java.util.Map;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.common.serialization.StringSerializer;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.annotation.EnableKafka;
import org.springframework.kafka.core.DefaultKafkaProducerFactory;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.core.ProducerFactory;

@Configuration
@EnableKafka
public class KafkaProducerConfig {

    @Value("${spring.kafka.producer.bootstrap-servers}")
    private String servers;
    
    @Value("${spring.kafka.producer.retries}")
    private int retries;
    
    @Value("${spring.kafka.producer.batch-size}")
    private int batchSize;
    
    @Value("${spring.kafka.producer.buffer-memory}")
    private int bufferMemory;


    public Map producerConfigs() {
        Map props = new HashMap<>();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, servers);
        props.put(ProducerConfig.RETRIES_CONFIG, retries);
        props.put(ProducerConfig.BATCH_SIZE_CONFIG, batchSize);
        //props.put(ProducerConfig.LINGER_MS_CONFIG, linger);
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, bufferMemory);
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
        return props;
    }

    public ProducerFactory producerFactory() {
        return new DefaultKafkaProducerFactory<>(producerConfigs());
    }

    @Bean
    public KafkaTemplate kafkaTemplate() {
        return new KafkaTemplate(producerFactory());
    }
}

 利用切面捕获入库信息:

package com.fw.tester.aspect;

import org.aspectj.lang.JoinPoint;
import org.aspectj.lang.annotation.AfterReturning;
import org.aspectj.lang.annotation.AfterThrowing;
import org.aspectj.lang.annotation.Aspect;
import org.aspectj.lang.annotation.Before;
import org.aspectj.lang.annotation.Pointcut;
import org.springframework.core.annotation.Order;
import org.springframework.http.HttpStatus;
import org.springframework.stereotype.Component;
import org.springframework.web.context.request.RequestContextHolder;
import org.springframework.web.context.request.ServletRequestAttributes;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.kafka.core.KafkaTemplate;
import com.alibaba.fastjson.JSON;
import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.extern.slf4j.Slf4j;
import javax.servlet.http.HttpServletRequest;
import javax.servlet.http.HttpServletResponse;

 

/**
 * Aspect for http log
 */

@Aspect
@Order(5)
@Component
@Slf4j
public class WebLogJsonAspect {
	
	 @Autowired
	 private KafkaTemplate kafkaTemplate;
	 
	 @Value("${spring.kafka.enable}")
	 private boolean kafkaEnable;

    ThreadLocal startTime = new ThreadLocal<>();
    
    @Pointcut("execution(public * com.fw.tester.controller..*.*(..))")
    public void webLog(){}

    @Before("webLog()")
    public void doBefore(JoinPoint joinPoint) throws Throwable {
        startTime.set(System.currentTimeMillis());
        ServletRequestAttributes attributes = (ServletRequestAttributes) RequestContextHolder.getRequestAttributes();
        HttpServletRequest request = attributes.getRequest();
        LogRequest logRequest = new LogRequest(System.currentTimeMillis(), request.getRequestURL().toString(), request.getMethod(),
        		joinPoint.getSignature().getDeclaringTypeName() + "." + joinPoint.getSignature().getName(), JSON.toJSONString(joinPoint.getArgs()));
        log.info(JSON.toJSONString(logRequest));
        
        if(kafkaEnable) {
        	try {
            	kafkaTemplate.send("httplog",  JSON.toJSONString(logRequest));
                log.info("Send message to kafka successfully");
            } catch (Exception e) {
            	log.error("Send message to kafka unsuccessfully", e);
            	e.printStackTrace();
            }
        }
    }

 

    @AfterReturning(returning = "ret", pointcut = "webLog()")
    public void doAfterReturning(Object ret) throws Throwable {
    	HttpServletResponse respOnse= ((ServletRequestAttributes) RequestContextHolder.getRequestAttributes()).getResponse();
    	LogResponse logRespOnse= new LogResponse(startTime.get(), response.getStatus(), ret, System.currentTimeMillis() - startTime.get());
    	log.info(JSON.toJSONString(logResponse));
    	if(kafkaEnable) {
         	try {
             	kafkaTemplate.send("httplog",  JSON.toJSONString(logResponse));
                 log.info("Send message to kafka successfully");
             } catch (Exception e) {
             	log.error("Send message to kafka unsuccessfully", e);
             	e.printStackTrace();
             }
         }
    }
    
    @AfterThrowing(throwing="ex", pointcut = "webLog()")
    public void doThrowing(Throwable ex){
    	LogResponse logRespOnse= new LogResponse(startTime.get(), HttpStatus.INTERNAL_SERVER_ERROR.value(), ex.getMessage(), System.currentTimeMillis() - startTime.get());
    	log.info(JSON.toJSONString(logResponse));
    	if(kafkaEnable) {
         	try {
             	kafkaTemplate.send("httplog",  JSON.toJSONString(logResponse));
                 log.info("Send message to kafka successfully");
             } catch (Exception e) {
             	log.error("Send message to kafka unsuccessfully", e);
             	e.printStackTrace();
             }
         }
    }
    
    
    @Data
    @AllArgsConstructor
    class LogRequest {
    	private long traceId;
    	private String url;
    	private String httpMethod;
    	private String classMethod;
    	private String args;
    }
    
    @Data
    @AllArgsConstructor
    class LogResponse {
    	private long traceId;
    	private int status;
    	private Object response;
    	private long spendTime;
    }
    
}

 

 完整的示例代码请见:https://github.com/yejingtao/fw-tester

需要注意的细节:

在elasticsearch中尽量用“小索引”,利用Kibana的“大索引”做上层的封装,这样一旦出现问题方便索引的重建和恢复。

举例:

http日志每天都用新的索引来保存记录httplog-2019.03.02,在kibana中大索引配置成httplog-2019*,如果某一天因为新属性导致插入失败,只需要重建当天索引就好。


 


推荐阅读
  • Java虚拟机及其发展历程
    Java虚拟机(JVM)是每个Java开发者日常工作中不可或缺的一部分,但其背后的运作机制却往往显得神秘莫测。本文将探讨Java及其虚拟机的发展历程,帮助读者深入了解这一关键技术。 ... [详细]
  • ABP框架是ASP.NET Boilerplate的简称,它不仅是一个开源且文档丰富的应用程序框架,还提供了一套基于领域驱动设计(DDD)的最佳实践架构模型。本文将详细介绍ABP框架的特点、项目结构及其在Web API优先架构中的应用。 ... [详细]
  • 问题描述现在,不管开发一个多大的系统(至少我现在的部门是这样的),都会带一个日志功能;在实际开发过程中 ... [详细]
  • protobuf 使用心得:解析与编码陷阱
    本文记录了一次在广告系统中使用protobuf进行数据交换时遇到的问题及其解决过程。通过这次经历,我们将探讨protobuf的特性和编码机制,帮助开发者避免类似的陷阱。 ... [详细]
  • 在尝试启动Java应用服务器Tomcat时,遇到了org.apache.catalina.LifecycleException异常。本文详细记录了异常的具体表现形式,并提供了有效的解决方案。 ... [详细]
  • 兆芯X86 CPU架构的演进与现状(国产CPU系列)
    本文详细介绍了兆芯X86 CPU架构的发展历程,从公司成立背景到关键技术授权,再到具体芯片架构的演进,全面解析了兆芯在国产CPU领域的贡献与挑战。 ... [详细]
  • 2021年Java开发实战:当前时间戳转换方法详解与实用网址推荐
    在当前的就业市场中,金九银十过后,金三银四也即将到来。本文将分享一些实用的面试技巧和题目,特别是针对正在寻找新工作机会的Java开发者。作者在准备字节跳动的面试过程中积累了丰富的经验,并成功获得了Offer。文中详细介绍了如何将当前时间戳进行转换的方法,并推荐了一些实用的在线资源,帮助读者更好地应对技术面试。 ... [详细]
  • 在Java分层设计模式中,典型的三层架构(3-tier application)将业务应用细分为表现层(UI)、业务逻辑层(BLL)和数据访问层(DAL)。这种分层结构不仅有助于提高代码的可维护性和可扩展性,还能有效分离关注点,使各层职责更加明确。通过合理的设计和实现,三层架构能够显著提升系统的整体性能和稳定性。 ... [详细]
  • 本文介绍了一种在 Android 开发中动态修改 strings.xml 文件中字符串值的有效方法。通过使用占位符,开发者可以在运行时根据需要填充具体的值,从而提高应用的灵活性和可维护性。 ... [详细]
  • 如何使用Maven将依赖插件一并打包进JAR文件
    本文详细介绍了在使用Maven构建项目时,如何将所需的依赖插件一同打包进最终的JAR文件中,以避免手动部署依赖库的麻烦。 ... [详细]
  • Spring Security基础配置详解
    本文详细介绍了Spring Security的基础配置方法,包括如何搭建Maven多模块工程以及具体的安全配置步骤,帮助开发者更好地理解和应用这一强大的安全框架。 ... [详细]
  • Hibernate全自动全映射ORM框架,旨在消除sql,是一个持久层的ORM框架1)、基础概念DAO(DataAccessorOb ... [详细]
  • 软件测试行业深度解析:迈向高薪的必经之路
    本文深入探讨了软件测试行业的发展现状及未来趋势,旨在帮助有志于在该领域取得高薪的技术人员明确职业方向和发展路径。 ... [详细]
  • 本文总结了一次针对大厂Java研发岗位的面试经历,探讨了面试中常见的问题及其背后的原因,并分享了一些实用的面试准备资料。 ... [详细]
  • 汇编语言:编程世界的始祖,连C语言都敬畏三分!
    当C语言还在萌芽阶段时,它首次接触到了汇编语言,并对其简洁性感到震惊。尽管汇编语言的指令极其简单,但它却是所有现代编程语言的基础,其重要性不言而喻。 ... [详细]
author-avatar
互粉-结局_596
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有