热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

开发笔记:数据采集flumekafka

本文由编程笔记#小编为大家整理,主要介绍了数据采集flumekafka相关的知识,希望对你有一定的参考价值。需求:采集8类日志数据,并且进入es展示:方案制定:目前数据采
本文由编程笔记#小编为大家整理,主要介绍了数据采集flume kafka相关的知识,希望对你有一定的参考价值。

需求:采集8类日志数据,并且进入es展示:

方案制定:目前数据采集通用flume+kafka模式,所以采用原有模式,一类服务进入一个topic,然后通过logstash进行数据清洗,最后进入es进行展示。

flume采用tadir 读取数据源,memory 进行缓存,kafka进行sink

 

a1.sources = s1 s2 s3 s4 s5 s6 s7 s8
a1.channels
= c1 c2 c3 c4 c5 c6 c7 c8
a1.sinks
= k1 k2 k3 k4 k5 k6 k7 k8
a1.sources.s1.type
= TAILDIR
a1.sources.s1.filegroups
= f1 f2
a1.sources.s1.filegroups.f1
= /home/es/.*.log
a1.sources.s1.channels
= c1
a1.sources.s2.type
= TAILDIR
a1.sources.s2.filegroups
= f1 f2
a1.sources.s2.filegroups.f1
= /home/adm/.*.log
a1.sources.s2.channels
= c2
a1.sources.s3.type
= TAILDIR
a1.sources.s3.filegroups
= f1 f2
a1.sources.s3.filegroups.f1
= /home/bas/.*.log
a1.sources.s3.channels
= c3
a1.sources.s4.type
= TAILDIR
a1.sources.s4.filegroups
= f1 f2
a1.sources.s4.filegroups.f1
= /home/cha/.*.log
a1.sources.s4.channels
= c2
a1.sources.s5.type
= TAILDIR
a1.sources.s5.filegroups
= f1 f2
a1.sources.s5.filegroups.f1
= /home/anog/.*.log
a1.sources.s5.channels
= c5
a1.sources.s6.type
= TAILDIR
a1.sources.s6.filegroups
= f1 f2
a1.sources.s6.filegroups.f1
= /home/dip/es_okeano/3.27.20.38/config_log/.*.log
a1.sources.s6.channels
= c6
a1.sources.s7.type
= TAILDIR
a1.sources.s7.filegroups
= f1 f2
a1.sources.s7.filegroups.f1
= /home/oau/.*.log
a1.sources.s7.channels
= c7
a1.sources.s8.type
= TAILDIR
a1.sources.s8.filegroups
= f1 f2
a1.sources.s8.filegroups.f1
= /home/z/.*.log
a1.sources.s8.channels
= c8
a1.channels.c1.type
= memory
a1.channels.c1.capacity
= 10000
a1.channels.c1.transactionCapacity
= 1000
a1.channels.c2.type
= memory
a1.channels.c2.capacity
= 10000
a1.channels.c2.transactionCapacity
= 1000
a1.channels.c3.type
= memory
a1.channels.c3.capacity
= 10000
a1.channels.c3.transactionCapacity
= 1000
a1.channels.c4.type
= memory
a1.channels.c4.capacity
= 10000
a1.channels.c4.transactionCapacity
= 1000
a1.channels.c5.type
= memory
a1.channels.c5.capacity
= 10000
a1.channels.c5.transactionCapacity
= 1000
a1.channels.c6.type
= memory
a1.channels.c6.capacity
= 10000
a1.channels.c6.transactionCapacity
= 1000
a1.channels.c7.type
= memory
a1.channels.c7.capacity
= 10000
a1.channels.c7.transactionCapacity
= 1000
a1.channels.c8.type
= memory
a1.channels.c8.capacity
= 10000
a1.channels.c8.transactionCapacity
= 1000
a1.sinks.k1.channel
= c1
a1.sinks.k1.type
= org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.topic
= ws_activity
a1.sinks.k1.kafka.bootstrap.servers
=172.56.10.23:9092
a1.sinks.k1.kafka.flumeBatchSize
= 5
a1.sinks.k1.kafka.producer.acks
= 1
a1.sinks.k2.channel
= c2
a1.sinks.k2.type
= org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k2.kafka.topic
= ws_admin
a1.sinks.k2.kafka.bootstrap.servers
= 172.56.10.23:9092
a1.sinks.k2.kafka.flumeBatchSize
= 5
a1.sinks.k2.kafka.producer.acks
= 1
a1.sinks.k3.channel
= c3
a1.sinks.k3.type
= org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k3.kafka.topic
= ws_authorization_oauth
a1.sinks.k3.kafka.bootstrap.servers
=172.56.10.23:9092
a1.sinks.k3.kafka.flumeBatchSize
= 5
a1.sinks.k3.kafka.producer.acks
= 1
a1.sinks.k4.channel
= c4
a1.sinks.k4.type
= org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k4.kafka.topic
= ws_base
a1.sinks.k4.kafka.bootstrap.servers
=172.56.10.23:9092
a1.sinks.k4.kafka.flumeBatchSize
= 5
a1.sinks.k4.kafka.producer.acks
= 1
a1.sinks.k5.channel
= c5
a1.sinks.k5.type
= org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k5.kafka.topic
= ws_channel
a1.sinks.k5.kafka.bootstrap.servers
=172.56.10.23:9092
a1.sinks.k5.kafka.flumeBatchSize
= 5
a1.sinks.k5.kafka.producer.acks
= 1
a1.sinks.k6.channel
= c6
a1.sinks.k6.type
= org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k6.kafka.topic
= ws_config
a1.sinks.k6.kafka.bootstrap.servers
=172.56.10.23:9092
a1.sinks.k6.kafka.flumeBatchSize
= 5
a1.sinks.k6.kafka.producer.acks
= 1
a1.sinks.k7.channel
= c7
a1.sinks.k7.type
= org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k7.kafka.topic
= ws_material
a1.sinks.k7.kafka.bootstrap.servers
=172.56.10.23:9092
a1.sinks.k7.kafka.flumeBatchSize
= 5
a1.sinks.k7.kafka.producer.acks
= 1
a1.sinks.k8.channel
= c8
a1.sinks.k8.type
= org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k8.kafka.topic
= ws_zuul
a1.sinks.k8.kafka.bootstrap.servers
=172.56.10.23:9092
a1.sinks.k8.kafka.flumeBatchSize
= 5
a1.sinks.k8.kafka.producer.acks
= 1

 


推荐阅读
  • 秒建一个后台管理系统?用这5个开源免费的Java项目就够了
    秒建一个后台管理系统?用这5个开源免费的Java项目就够了 ... [详细]
  • Python 数据可视化实战指南
    本文详细介绍如何使用 Python 进行数据可视化,涵盖从环境搭建到具体实例的全过程。 ... [详细]
  • Spark与HBase结合处理大规模流量数据结构设计
    本文将详细介绍如何利用Spark和HBase进行大规模流量数据的分析与处理,包括数据结构的设计和优化方法。 ... [详细]
  • 本文探讨了 Kafka 集群的高效部署与优化策略。首先介绍了 Kafka 的下载与安装步骤,包括从官方网站获取最新版本的压缩包并进行解压。随后详细讨论了集群配置的最佳实践,涵盖节点选择、网络优化和性能调优等方面,旨在提升系统的稳定性和处理能力。此外,还提供了常见的故障排查方法和监控方案,帮助运维人员更好地管理和维护 Kafka 集群。 ... [详细]
  • 在Python多进程编程中,`multiprocessing`模块是不可或缺的工具。本文详细探讨了该模块在多进程管理中的核心原理,并通过实际代码示例进行了深入分析。文章不仅总结了常见的多进程编程技巧,还提供了解决常见问题的实用方法,帮助读者更好地理解和应用多进程编程技术。 ... [详细]
  • 如何撰写PHP电商项目的实战经验? ... [详细]
  • Java中高级工程师面试必备:JVM核心知识点全面解析
    对于软件开发人员而言,随着技术框架的不断演进和成熟,许多高级功能已经被高度封装,使得初级开发者只需掌握基本用法即可迅速完成项目。然而,对于中高级工程师而言,深入了解Java虚拟机(JVM)的核心知识点是必不可少的。这不仅有助于优化性能和解决复杂问题,还能在面试中脱颖而出。本文将全面解析JVM的关键概念和技术细节,帮助读者全面提升技术水平。 ... [详细]
  • com.sun.javadoc.PackageDoc.exceptions()方法的使用及代码示例 ... [详细]
  • 本文详细介绍了 InfluxDB、collectd 和 Grafana 的安装与配置流程。首先,按照启动顺序依次安装并配置 InfluxDB、collectd 和 Grafana。InfluxDB 作为时序数据库,用于存储时间序列数据;collectd 负责数据的采集与传输;Grafana 则用于数据的可视化展示。文中提供了 collectd 的官方文档链接,便于用户参考和进一步了解其配置选项。通过本指南,读者可以轻松搭建一个高效的数据监控系统。 ... [详细]
  • 在使用 Cacti 进行监控时,发现已运行的转码机未产生流量,导致 Cacti 监控界面显示该转码机处于宕机状态。进一步检查 Cacti 日志,发现数据库中存在 SQL 查询失败的问题,错误代码为 145。此问题可能是由于数据库表损坏或索引失效所致,建议对相关表进行修复操作以恢复监控功能。 ... [详细]
  • 服务器部署中的安全策略实践与优化
    服务器部署中的安全策略实践与优化 ... [详细]
  • Java Socket 关键参数详解与优化建议
    Java Socket 的 API 虽然被广泛使用,但其关键参数的用途却鲜为人知。本文详细解析了 Java Socket 中的重要参数,如 backlog 参数,它用于控制服务器等待连接请求的队列长度。此外,还探讨了其他参数如 SO_TIMEOUT、SO_REUSEADDR 等的配置方法及其对性能的影响,并提供了优化建议,帮助开发者提升网络通信的稳定性和效率。 ... [详细]
  • 如何优化MySQL数据库性能以提升查询效率和系统稳定性 ... [详细]
  • 本文详细介绍了在Linux系统上编译安装MySQL 5.5源码的步骤。首先,通过Yum安装必要的依赖软件包,如GCC、GCC-C++等,确保编译环境的完备。接着,下载并解压MySQL 5.5的源码包,配置编译选项,进行编译和安装。最后,完成安装后,进行基本的配置和启动测试,确保MySQL服务正常运行。 ... [详细]
  • 在CentOS系统中部署与配置ZooKeeper详解 ... [详细]
author-avatar
Candy王丫丫
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有