热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

kafka的pom文件_Flink的sink实战之二:kafka

欢迎访问我的GitHubhttps:github.comzq2599blog_demos内容:所有原创文章分类汇总及配套源码,涉及Java、Docker

欢迎访问我的GitHub

https://github.com/zq2599/blog_demos

内容:所有原创文章分类汇总及配套源码,涉及Java、Docker、Kubernetes、DevOPS等;

本篇概览

本文是《Flink的sink实战》系列的第二篇,前文《Flink的sink实战之一:初探》对sink有了基本的了解,本章来体验将数据sink到kafka的操作;

全系列链接

  1. 《Flink的sink实战之一:初探》
  2. 《Flink的sink实战之二:kafka》
  3. 《Flink的sink实战之三:cassandra3》
  4. 《Flink的sink实战之四:自定义》

    版本和环境准备

    本次实战的环境和版本如下:
  5. JDK:1.8.0_211
  6. Flink:1.9.2
  7. Maven:3.6.0
  8. 操作系统:macOS Catalina 10.15.3 (MacBook Pro 13-inch, 2018)
  9. IDEA:2018.3.5 (Ultimate Edition)
  10. Kafka:2.4.0
  11. Zookeeper:3.5.5

请确保上述环境和服务已经就绪;

源码下载

如果您不想写代码,整个系列的源码可在GitHub下载到,地址和链接信息如下表所示(https://github.com/zq2599/blog_demos):

这个git项目中有多个文件夹,本章的应用在flinksinkdemo文件夹下,如下图红框所示:

cff6ba377aed01bd85a3abcd19ffb856.png 准备完毕,开始开发;

准备工作

正式编码前,先去官网查看相关资料了解基本情况:

  1. 地址:https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/connectors/kafka.html
  2. 我这里用的kafka是2.4.0版本,在官方文档查找对应的库和类,如下图红框所示:

    7a2706a5698a41138256c153c85180bf.png

    kafka准备

  3. 创建名为test006的topic,有四个分区,参考命令: ```shell ./kafka-topics.sh

--create
--bootstrap-server 127.0.0.1:9092
--replication-factor 1
--partitions 4
--topic test006

2. 在控制台消费test006的消息,参考命令:
```shell
./kafka-console-consumer.sh
--bootstrap-server 127.0.0.1:9092
--topic test006

  1. 此时如果该topic有消息进来,就会在控制台输出;
  2. 接下来开始编码;

    创建工程

  3. 用maven命令创建flink工程: ```shell mvn
    archetype:generate

-DarchetypeGroupId=org.apache.flink
-DarchetypeArtifactId=flink-quickstart-java
-DarchetypeVersion=1.9.2

2. 根据提示,groupid输入com.bolingcavalry,artifactid输入flinksinkdemo,即可创建一个maven工程;
3. 在pom.xml中增加kafka依赖库:
```xml
org.apache.flinkflink-connector-kafka_2.111.9.0

  1. 工程创建完成,开始编写flink任务的代码;

    发送字符串消息的sink

    先尝试发送字符串类型的消息:
  2. 创建KafkaSerializationSchema接口的实现类,后面这个类要作为创建sink对象的参数使用:

    package com.bolingcavalry.addsink;

import org.apache.flink.streaming.connectors.kafka.KafkaSerializationSchema; import org.apache.kafka.clients.producer.ProducerRecord; import java.nio.charset.StandardCharsets;

public class ProducerStringSerializationSchema implements KafkaSerializationSchema {

private String topic;public ProducerStringSerializationSchema(String topic) {super();this.topic = topic;
}@Override
public ProducerRecord serialize(String element, Long timestamp) {return new ProducerRecord(topic, element.getBytes(StandardCharsets.UTF_8));
}

}

2. 创建任务类KafkaStrSink,请注意FlinkKafkaProducer对象的参数,FlinkKafkaProducer.Semantic.EXACTLY_ONCE表示严格一次:
```java
package com.bolingcavalry.addsink;import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer;
import java.util.ArrayList;
import java.util.List;
import java.util.Properties;public class KafkaStrSink {public static void main(String[] args) throws Exception {final StreamExecutionEnvironment env &#61; StreamExecutionEnvironment.getExecutionEnvironment();//并行度为1env.setParallelism(1);Properties properties &#61; new Properties();properties.setProperty("bootstrap.servers", "192.168.50.43:9092");String topic &#61; "test006";FlinkKafkaProducer producer &#61; new FlinkKafkaProducer<>(topic,new ProducerStringSerializationSchema(topic),properties,FlinkKafkaProducer.Semantic.EXACTLY_ONCE);//创建一个List&#xff0c;里面有两个Tuple2元素List list &#61; new ArrayList<>();list.add("aaa");list.add("bbb");list.add("ccc");list.add("ddd");list.add("eee");list.add("fff");list.add("aaa");//统计每个单词的数量env.fromCollection(list).addSink(producer).setParallelism(4);env.execute("sink demo : kafka str");}
}

  1. 使用mvn命令编译构建&#xff0c;在target目录得到文件flinksinkdemo-1.0-SNAPSHOT.jar&#xff1b;

  2. 在flink的web页面提交flinksinkdemo-1.0-SNAPSHOT.jar&#xff0c;并制定执行类&#xff0c;如下图&#xff1a;

    0ffd19a0c749e99d30a082a67e656dba.png
  3. 提交成功后&#xff0c;如果flink有四个可用slot&#xff0c;任务会立即执行&#xff0c;会在消费kafak消息的终端收到消息&#xff0c;如下图&#xff1a;

    ab33ab51488ba1f096a5265802fb8521.png
  4. 任务执行情况如下图&#xff1a;

    c26b3fb242f7f2c3d21ca7ab1d48605b.png

    发送对象消息的sink

    再来尝试如何发送对象类型的消息&#xff0c;这里的对象选择常用的Tuple2对象&#xff1a;

  5. 创建KafkaSerializationSchema接口的实现类&#xff0c;该类后面要用作sink对象的入参&#xff0c;请注意代码中捕获异常的那段注释&#xff1a;生产环境慎用printStackTrace()!!!

package com.bolingcavalry.addsink;import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.core.JsonProcessingException;
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.ObjectMapper;
import org.apache.flink.streaming.connectors.kafka.KafkaSerializationSchema;
import org.apache.kafka.clients.producer.ProducerRecord;
import javax.annotation.Nullable;public class ObjSerializationSchema implements KafkaSerializationSchema> {private String topic;private ObjectMapper mapper;public ObjSerializationSchema(String topic) {super();this.topic &#61; topic;}&#64;Overridepublic ProducerRecord serialize(Tuple2 stringIntegerTuple2, &#64;Nullable Long timestamp) {byte[] b &#61; null;if (mapper &#61;&#61; null) {mapper &#61; new ObjectMapper();}try {b&#61; mapper.writeValueAsBytes(stringIntegerTuple2);} catch (JsonProcessingException e) {// 注意&#xff0c;在生产环境这是个非常危险的操作&#xff0c;// 过多的错误打印会严重影响系统性能&#xff0c;请根据生产环境情况做调整e.printStackTrace();}return new ProducerRecord(topic, b);}
}

  1. 创建flink任务类&#xff1a;

package com.bolingcavalry.addsink;import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer;
import java.util.ArrayList;
import java.util.List;
import java.util.Properties;public class KafkaObjSink {public static void main(String[] args) throws Exception {final StreamExecutionEnvironment env &#61; StreamExecutionEnvironment.getExecutionEnvironment();//并行度为1env.setParallelism(1);Properties properties &#61; new Properties();//kafka的broker地址properties.setProperty("bootstrap.servers", "192.168.50.43:9092");String topic &#61; "test006";FlinkKafkaProducer> producer &#61; new FlinkKafkaProducer<>(topic,new ObjSerializationSchema(topic),properties,FlinkKafkaProducer.Semantic.EXACTLY_ONCE);//创建一个List&#xff0c;里面有两个Tuple2元素List> list &#61; new ArrayList<>();list.add(new Tuple2("aaa", 1));list.add(new Tuple2("bbb", 1));list.add(new Tuple2("ccc", 1));list.add(new Tuple2("ddd", 1));list.add(new Tuple2("eee", 1));list.add(new Tuple2("fff", 1));list.add(new Tuple2("aaa", 1));//统计每个单词的数量env.fromCollection(list).keyBy(0).sum(1).addSink(producer).setParallelism(4);env.execute("sink demo : kafka obj");}
}

  1. 像前一个任务那样编译构建&#xff0c;把jar提交到flink&#xff0c;并指定执行类是com.bolingcavalry.addsink.KafkaObjSink&#xff1b;
  2. 消费kafka消息的控制台输出如下&#xff1a;

    1f6270dc23ed451dd21be919c8f9d9ab.png
  3. 在web页面可见执行情况如下&#xff1a;

    b12b145fdde2920365e23129a697071b.png 至此&#xff0c;flink将计算结果作为kafka消息发送出去的实战就完成了&#xff0c;希望能给您提供参考&#xff0c;接下来的章节&#xff0c;我们会继续体验官方提供的sink能力&#xff1b;

欢迎关注公众号&#xff1a;程序员欣宸

微信搜索「程序员欣宸」&#xff0c;我是欣宸&#xff0c;期待与您一同畅游Java世界... https://github.com/zq2599/blog_demos



推荐阅读
  • (单机安装kafka)mac安装jdkzookeeperkafkapythonkafka模块
    此处讲解单机安装kafka kafka是LinkedIn开发并开源的一个分布式MQ系统,现在是Apache的一个孵化项目。在它的主页描述kafka为一个高吞吐量的分布式(能将消息分 ... [详细]
  • Apache Shiro 身份验证绕过漏洞 (CVE202011989) 详细解析及防范措施
    本文详细解析了Apache Shiro 身份验证绕过漏洞 (CVE202011989) 的原理和影响,并提供了相应的防范措施。Apache Shiro 是一个强大且易用的Java安全框架,常用于执行身份验证、授权、密码和会话管理。在Apache Shiro 1.5.3之前的版本中,与Spring控制器一起使用时,存在特制请求可能导致身份验证绕过的漏洞。本文还介绍了该漏洞的具体细节,并给出了防范该漏洞的建议措施。 ... [详细]
  • Tomcat安装与配置教程及常见问题解决方法
    本文介绍了Tomcat的安装与配置教程,包括jdk版本的选择、域名解析、war文件的部署和访问、常见问题的解决方法等。其中涉及到的问题包括403问题、数据库连接问题、1130错误、2003错误、Java Runtime版本不兼容问题以及502错误等。最后还提到了项目的前后端连接代码的配置。通过本文的指导,读者可以顺利完成Tomcat的安装与配置,并解决常见的问题。 ... [详细]
  • 我正在使用sql-serverkafka-connect和debezium监视sqlserver数据库,但是当我发布并运行我的wo ... [详细]
  • Flink(三)IDEA开发Flink环境搭建与测试
    一.IDEA开发环境1.pom文件设置1.8 ... [详细]
  • flink 本地_Flink本地安装和创建Flink应用
    本篇介绍一下Flink本地环境搭建和创建Flink应用。本地安装Flink可以在Linux、MacOSX和Windows上运行,要求安装Java8.x。java-ve ... [详细]
  • 本文介绍了在Mac上搭建php环境后无法使用localhost连接mysql的问题,并通过将localhost替换为127.0.0.1或本机IP解决了该问题。文章解释了localhost和127.0.0.1的区别,指出了使用socket方式连接导致连接失败的原因。此外,还提供了相关链接供读者深入了解。 ... [详细]
  • 本文介绍了一些Java开发项目管理工具及其配置教程,包括团队协同工具worktil,版本管理工具GitLab,自动化构建工具Jenkins,项目管理工具Maven和Maven私服Nexus,以及Mybatis的安装和代码自动生成工具。提供了相关链接供读者参考。 ... [详细]
  • java.lang.Class.getDeclaredMethod()方法java.lang.Class.getDeclaredMethod()方法用法实例教程-方法返回一个Met ... [详细]
  • Spark Streaming和Kafka整合之路(最新版本)
    2019独角兽企业重金招聘Python工程师标准最近完成了SparkStreaming和Kafka的整合工作,耗时虽然不长,但是当中还是遇到了不少 ... [详细]
  • 本文_大数据之非常详细Sqoop安装和基本操作
    篇首语:本文由编程笔记#小编为大家整理,主要介绍了大数据之非常详细Sqoop安装和基本操作相关的知识,希望对你有一定的参考价值。大数据大数据之 ... [详细]
  • HBase系列之hbase2.2.3安装
    1.下载地址hbase-2.2.3下载地址2.解压安装1)解压tarzxvfhbase-2.2.3-bin.tar.gz2)环境变量配置vim ... [详细]
  • 新手学习java中,Java新手
    本文目录一览:1、java初学者怎么入门2、新 ... [详细]
  • #python没有类似于java和C#的接口类(interface),需要使用抽象类和抽象方法来实现接口功能#!usrbinenvpython#_*_coding ... [详细]
  • dubbo学习 一 dubbo概述
    1,背景1,网站刚开时候的时候可能所有的功能业务都在一个应用里面2,当业务不断复杂,流量不断增多的时候,就需要将原先的一个应用划分成多个独立的应用。3,当分出来的业务越来越多的时候 ... [详细]
author-avatar
手机用户2602915215
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有