热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

EFK的搭建(未完成)

EFK是ELK日志分析的一个变种,能够更好的来实现日志分析。首先我们先准备3台centos7的服务器,在给他们调成2核2G的状态打开。软件版本号zookeeper3.4.14K

EFK 是ELK 日志分析的一个变种,能够更好的来实现日志分析。

首先我们先准备3台 centos7的服务器,在给他们调成2核2G的状态打开。

软件 版本号
zookeeper 3.4.14
Kafka 2.2.0
logstash 6.6.0
elasticsearch 6.6.2
jdk jdk-8u131-linux-x64_.rpm
kibana 6.6.2

我的三台服务器分别为

192.168.153.171  安装了jdk,zookeeper,kafka,filebeat,nginx

192.168.153.172   安装了jdk,zookeeper,kafka,logstash

192.168.153.173   安装了jdk,zookeeper,kafka,elasticsearch,kibana

1 . 首先我们先在每台服务器上安装jdk

 cd /usr/local/src
 rpm -ivh jdk-8u131-linux-x64_.rpm

 2 . 关闭防火墙和selinux

 systemctl stop firewalld 
 setenforce 0

 3 . 上传需要使用的安装包到/usr/local/src下

 cd /usr/local/src
 rz (zookeeper,kafka)

 4 . 解压zookeeper,kafka 到/usr/local/下

 tar zxf zookeeper-3.4.14.tar.gz
 tar zxf kafka_2.11-2.2.0.tgz

 mv kafka_2.11-2.2.0 /usr/local/kafka
 mv zookeeper-3.4.14 /usr/local/zookeeper

 5 . 进入 /usr/local/zookeeper

 mkdir {zkdata,zkdatalog}

 进入/usr/local/zookeeper/conf/
 cp zoo_sample.cfg zoo.cfg

 6 . 编辑zoo.cfg

vim zoo.cfg
--------------------------------------------------------
tickTime=2000 //zookeeper服务器之间的心跳时间 initLimit=10 //zookeeper的最大链接失败时间 syncLimit=5 //zookeeper的同步通信时间 dataDir=/usr/local/zookeeper/zkdata //zookeeper的存放快照日志的绝对路径 dataLogDir=/usr/local/zookeeper/zkdatalog //zookeeper的存放事物日志的绝对路径 clientPort=2181 //zookeeper与客户端建立连接的端口 server.1=192.168.153.171:2888:3888 //服务器及其编号,服务器IP地址,通信端口,选举端口 server.2=192.168.153.172:2888:3888 server.3=192.168.153.173:2888:3888
----------------------------------------------------------

 7 . 在每台机器上写上自己的id 

 echo ‘1/2/3‘ > /usr/local/zookeeper/zkdata/myid
 我写的是171为1  172为2  173为3

 8 . 开启zookeeper服务

 cd /usr/local/zookeeper/bin/
 ./zkServer.sh start
 ./zkServer.sh status   //Mode: leader为主节点,Mode: follower为从节点,zk集群一般只有一个leader,多个follower,主一般是响应客户端的读写请求,而从主同步数据,当主挂掉之后就会从follower里投票选举一个leader出来。

 如果查看状态时为error 我们看一下端口起没起来,zookeeper开启时的顺序是( 1 2 3 ),把 /usr/local/zookeeper/zkdata 下的文件删除,只保留一个我们设置的myid,在进行重启

到此为止 zookeeper 配置完成 

搭建kafka 

1 . 编辑kafka的配置文件

第一台
cd /usr/local/kafka/config
vim server.properties
*********************
broker.id=1
advertised.listeners=PLAINTEXT://kafka01:9092
zookeeper.cOnnect=192.168.153.171:2181,192.168.153.172:2181,192.168.153.173:2181  (三台服务器的IP地址)

第2台
cd /usr/local/kafka/config
vim server.properties
*********************
broker.id=2
advertised.listeners=PLAINTEXT://kafka02:9092
zookeeper.cOnnect=192.168.153.171:2181,192.168.153.172:2181,192.168.153.173:2181  (三台服务器的IP地址)

第3台
cd /usr/local/kafka/config
vim server.properties
*********************
broker.id=3
advertised.listeners=PLAINTEXT://kafka03:9092
zookeeper.cOnnect=192.168.153.171:2181,192.168.153.172:2181,192.168.153.173:2181  (三台服务器的IP地址)

2 . vim /etc/hosts

 192.168.153.171  kafka01
 192.168.153.172  kafka02
 192.168.153.173  kafka03

3 . 每一台服务器都要启动kafka

 cd /usr/local/kafka/bin
 ./kafka-server-start.sh  -daemon ../config/server.properties // 以后台模式启动kafka

4 . 启动之后查看端口是否成功启动

 ss -ntlp | grep 9092

5 . 创建主题topics

 cd /usr/local/kafka/bin
 ./kafka-topics.sh --create --zookeeper 192.168.153.171:2181 --replication-factor 2 --partitions 3 --topic wg007   //因为我只做第一台服务器的日志收集,所以我的IP地址为第一台的

6 . 查看主题 如果可以显示出我们所创建的topics 就代表我们创建成功了

   技术图片

 7 . 模拟生产者 执行代码之后就会有一个>

 cd /usr/local/kafka/bin
 ./kafka-console-producer.sh --broker-list 192.168.153.171:9092 --topic wg007
>
>

     在第二台上模拟消费者

/usr/local/kafka/bin/kafka-console-consumer.sh --bootstrap-server 192.168.153.172:9092 --topic wg007 --from-beginning //可以在任意服务器上执行

 写一个脚本用来创建kafka的topic

 cd /usr/local/kafka/bin
 vim kafka-create-topics.sh
 #################################
 #!/bin/bash
 read -p "请输入一个你想要创建的topic:" topic
 cd /usr/local/kafka/bin
 ./kafka-topics.sh --create --zookeeper 192.168.153.171:2181 --replication-factor 2 --partitions 3 --topic ${topic}

 创建一个新的yum源

vim /etc/yum.repo.d/filebeat.repo
***加入以下内容
[filebeat-6.x]
name=Elasticsearch repository for 6.x packages
baseurl=https://artifacts.elastic.co/packages/6.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md

 安装filebeat

yum -y install filebeat

 编辑filebeat的配置文件

cd /etc/filebeat
vim filebeat.yml
修改以下内容

enabled: true

paths:
    - /var/log/nginx/*.log  //写这个路径的前提是安装nginx


output.kafka:
  enabled: true
  # Array of hosts to connect to.
  hosts: ["192.168.153.171:9092","192.168.153.172:9092","192.168.153.173:9092"]
  topic: nginx1 //写这个nginx1 的前提是有nginx1的topic   上面有生产者的脚本

  技术图片

 安装nginx

yum -y install epel*
yum -y install nginx

 启动nginx和filebeat

systemctl start filebeat
systemctl enable filebeat
systemctl start nginx

 可以给ningx生产一些数据

yum -y install httpd-tools
 ab -n1000 -c 200 http://127.0.0.1/cccc   //这条命令可以多执行几次
-----------------------------------------------------------------
curl -I 192.168.18.140:80

然后再检验看日志是否可以同步

现在开始收集多个日志 system  nginx  secure 和日志 编辑filebeat的配置文件

#讲filebeat的input改成下面的样子
 
filebeat.inputs:
#这个是收集nginx的日志
- type: log
  enabled: true
  paths:
    - /var/log/nginx/*.log  //nginx的日志文件
  fields:
        log_topics: nginx1  //这个是收集nginx的topic
 
#这个是收集system的日志
- type: log
  enabled: true
  paths:
    - /var/log/messages   //system的日志文件目录
  fields:
        log_topics: messages  //这个是收集system的topic
 
#收集secure的日志
- type: log
  enabled: true
  paths:
    - /var/log/secure  //secure的日志文件
  fields:
        log_topics: secure  //这个是收集secure的topic
 
output.kafka:
  enabled: true
  hosts: ["192.168.153.171:9092","192.168.153.172:9092","192.168.153.173:9092"]
  topic: ‘%{[fields][log_topics]}‘

注意:一点更要创建三个topic 就是上面的配置文件提到的topic  可以使用上面的脚本创建topic   重启filebeat 

 systemctl restart filebeat

接下来在第二台安装logstash   在第三台安装ES集群(就是elasticsearch和kibana)

EFK的搭建(未完成)


推荐阅读
  • CentOS 7部署KVM虚拟化环境之一架构介绍
    本文介绍了CentOS 7部署KVM虚拟化环境的架构,详细解释了虚拟化技术的概念和原理,包括全虚拟化和半虚拟化。同时介绍了虚拟机的概念和虚拟化软件的作用。 ... [详细]
  • 本文介绍了通过ABAP开发往外网发邮件的需求,并提供了配置和代码整理的资料。其中包括了配置SAP邮件服务器的步骤和ABAP写发送邮件代码的过程。通过RZ10配置参数和icm/server_port_1的设定,可以实现向Sap User和外部邮件发送邮件的功能。希望对需要的开发人员有帮助。摘要长度:184字。 ... [详细]
  • 本文介绍了lua语言中闭包的特性及其在模式匹配、日期处理、编译和模块化等方面的应用。lua中的闭包是严格遵循词法定界的第一类值,函数可以作为变量自由传递,也可以作为参数传递给其他函数。这些特性使得lua语言具有极大的灵活性,为程序开发带来了便利。 ... [详细]
  • 基于layUI的图片上传前预览功能的2种实现方式
    本文介绍了基于layUI的图片上传前预览功能的两种实现方式:一种是使用blob+FileReader,另一种是使用layUI自带的参数。通过选择文件后点击文件名,在页面中间弹窗内预览图片。其中,layUI自带的参数实现了图片预览功能。该功能依赖于layUI的上传模块,并使用了blob和FileReader来读取本地文件并获取图像的base64编码。点击文件名时会执行See()函数。摘要长度为169字。 ... [详细]
  • 本文讨论了如何优化解决hdu 1003 java题目的动态规划方法,通过分析加法规则和最大和的性质,提出了一种优化的思路。具体方法是,当从1加到n为负时,即sum(1,n)sum(n,s),可以继续加法计算。同时,还考虑了两种特殊情况:都是负数的情况和有0的情况。最后,通过使用Scanner类来获取输入数据。 ... [详细]
  • 本文详细介绍了Linux中进程控制块PCBtask_struct结构体的结构和作用,包括进程状态、进程号、待处理信号、进程地址空间、调度标志、锁深度、基本时间片、调度策略以及内存管理信息等方面的内容。阅读本文可以更加深入地了解Linux进程管理的原理和机制。 ... [详细]
  • 1,关于死锁的理解死锁,我们可以简单的理解为是两个线程同时使用同一资源,两个线程又得不到相应的资源而造成永无相互等待的情况。 2,模拟死锁背景介绍:我们创建一个朋友 ... [详细]
  • 后台获取视图对应的字符串
    1.帮助类后台获取视图对应的字符串publicclassViewHelper{将View输出为字符串(注:不会执行对应的ac ... [详细]
  • 《数据结构》学习笔记3——串匹配算法性能评估
    本文主要讨论串匹配算法的性能评估,包括模式匹配、字符种类数量、算法复杂度等内容。通过借助C++中的头文件和库,可以实现对串的匹配操作。其中蛮力算法的复杂度为O(m*n),通过随机取出长度为m的子串作为模式P,在文本T中进行匹配,统计平均复杂度。对于成功和失败的匹配分别进行测试,分析其平均复杂度。详情请参考相关学习资源。 ... [详细]
  • 动态规划算法的基本步骤及最长递增子序列问题详解
    本文详细介绍了动态规划算法的基本步骤,包括划分阶段、选择状态、决策和状态转移方程,并以最长递增子序列问题为例进行了详细解析。动态规划算法的有效性依赖于问题本身所具有的最优子结构性质和子问题重叠性质。通过将子问题的解保存在一个表中,在以后尽可能多地利用这些子问题的解,从而提高算法的效率。 ... [详细]
  • Java验证码——kaptcha的使用配置及样式
    本文介绍了如何使用kaptcha库来实现Java验证码的配置和样式设置,包括pom.xml的依赖配置和web.xml中servlet的配置。 ... [详细]
  • 高质量SQL书写的30条建议
    本文提供了30条关于优化SQL的建议,包括避免使用select *,使用具体字段,以及使用limit 1等。这些建议是基于实际开发经验总结出来的,旨在帮助读者优化SQL查询。 ... [详细]
  • 本文介绍了指针的概念以及在函数调用时使用指针作为参数的情况。指针存放的是变量的地址,通过指针可以修改指针所指的变量的值。然而,如果想要修改指针的指向,就需要使用指针的引用。文章还通过一个简单的示例代码解释了指针的引用的使用方法,并思考了在修改指针的指向后,取指针的输出结果。 ... [详细]
  • 在project.properties添加#Projecttarget.targetandroid-19android.library.reference.1..Sliding ... [详细]
  • 猜字母游戏
    猜字母游戏猜字母游戏——设计数据结构猜字母游戏——设计程序结构猜字母游戏——实现字母生成方法猜字母游戏——实现字母检测方法猜字母游戏——实现主方法1猜字母游戏——设计数据结构1.1 ... [详细]
author-avatar
那一抹细雨
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有