热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

StreamTableEnvironment获取执行环境报错

flink创建表报错:完整代码如下:

flink创建表报错:完整代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
StreamExecutionEnvironment ssEnv = StreamExecutionEnvironment.getExecutionEnvironment();

        EnvironmentSettings ssSettings = EnvironmentSettings.newInstance().useOldPlanner().inStreamingMode().build();

        StreamTableEnvironment ssTableEnv = StreamTableEnvironment.create(ssEnv, ssSettings);

        String sql = "create table test_table ( \n" +

                    "id int,\n" +

                    "fk_drug_info int,\n" +

                    "fk_professional_id string,\n" +

                    "urine_time TIMESTAMP,\n" +

                    "urine_place string,\n" +

                    "urine_result int,\n" +

                    "test_type int,\n" +

                    "test_time TIMESTAMP,\n" +

                    "seal_time TIMESTAMP,\n" +

                    "urine_image string,\n" +

                    "urine_video string,\n" +

                    "urine_cause string,\n" +

                    "help_professional_id int,\n" +

                    "latitude string,\n" +

                    "fk_auth_manager int,\n" +

                    "table_date int,\n" +

                    "urine_state_type int,\n" +

                    "annex string,\n" +

                    "update_time int,\n" +

                    "is_del int\n"+

                ") with ( \n" +

                    "'connector' = 'kafka',\n" +

                    "'topic' = 'LG831_test.dbo.urine_upload',\n" +

                    "'properties.bootstrap.servers' = 'hadoop-node1:9092,hadoop-node2:9092,hadoop-node3:9092',\n" +

                    "'properties.group.id' = 'connect-cluster',\n" +

                    "'format' = 'debezium-json'"+

                ")";

        ssTableEnv.executeSql(sql);







        Table result = ssTableEnv.sqlQuery("select * from test_table");

        result.execute().print();

报错信息如下:

 

1
2
3
4
5
6
7
8
9
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/flink/table/functions/UserDefinedAggregateFunction

    at org.apache.flink.table.api.bridge.java.StreamTableEnvironment.create(StreamTableEnvironment.java:111)

    at flink.java.FlinkTable.main(FlinkTable.java:19)

Caused by: java.lang.ClassNotFoundException: org.apache.flink.table.functions.UserDefinedAggregateFunction

    at java.net.URLClassLoader.findClass(URLClassLoader.java:382)

    at java.lang.ClassLoader.loadClass(ClassLoader.java:418)

    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:355)

    at java.lang.ClassLoader.loadClass(ClassLoader.java:351)

    ... 2 more

错误堆栈提示找不到类,但是不知道具体缺少哪个类,情各位大神帮忙

pom.xml信息如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
   

       

            org.apache.flink

            flink-java

            1.11.1

            provided

       




       

       

            org.apache.flink

            flink-json

            1.12.2

            test

       




       

            org.apache.flink

            flink-streaming-java_2.12

            1.11.1

            provided

       


       

            org.apache.flink

            flink-scala_2.12

            1.11.1

            provided

       


       

            org.apache.flink

            flink-streaming-scala_2.12

            1.11.1

            provided

       


       

            org.apache.flink

            flink-clients_2.12

            1.11.1

            provided

       


       

       

            org.slf4j

            slf4j-api

            1.7.10

            provided

       


       

            org.slf4j

            slf4j-log4j12

            1.7.10

            provided

       


       

            org.apache.hadoop

            hadoop-client

            3.2.0

            provided

       




       

       

            org.apache.flink

            flink-table-common

            1.12.2

            provided

       






       

            org.apache.bahir

            flink-connector-redis_2.11

            1.0

       


       

       

            org.apache.flink

            flink-table-api-java-bridge_2.12

            1.11.0

            provided

       




       

       

            org.apache.flink

            flink-table-api-java

            1.12.2

       






       

            org.apache.flink

            flink-table-api-scala-bridge_2.12

            1.11.0

            provided

       




       

            org.apache.flink

            flink-table-planner-blink_2.12

            1.11.0

            provided

       




       

            org.apache.flink

            flink-table-planner_2.12

            1.11.1

            provided

       




       

            org.apache.flink

            flink-connector-kafka_2.12

            1.11.1

       


       

            org.apache.flink

            flink-statebackend-rocksdb_2.12

            1.11.1

       


   



推荐阅读
  • 从0到1搭建大数据平台
    从0到1搭建大数据平台 ... [详细]
  • DAO(Data Access Object)模式是一种用于抽象和封装所有对数据库或其他持久化机制访问的方法,它通过提供一个统一的接口来隐藏底层数据访问的复杂性。 ... [详细]
  • com.sun.javadoc.PackageDoc.exceptions()方法的使用及代码示例 ... [详细]
  • 本文介绍如何使用 Python 的 DOM 和 SAX 方法解析 XML 文件,并通过示例展示了如何动态创建数据库表和处理大量数据的实时插入。 ... [详细]
  • 深入解析 Lifecycle 的实现原理
    本文将详细介绍 Android Jetpack 中 Lifecycle 组件的实现原理,帮助开发者更好地理解和使用 Lifecycle,避免常见的内存泄漏问题。 ... [详细]
  • 基于Linux开源VOIP系统LinPhone[四]
    ****************************************************************************************** ... [详细]
  • 本文讨论了在进行 MySQL 数据迁移过程中遇到的所有 .frm 文件报错的问题,并提供了详细的解决方案和建议。 ... [详细]
  • 基于Net Core 3.0与Web API的前后端分离开发:Vue.js在前端的应用
    本文介绍了如何使用Net Core 3.0和Web API进行前后端分离开发,并重点探讨了Vue.js在前端的应用。后端采用MySQL数据库和EF Core框架进行数据操作,开发环境为Windows 10和Visual Studio 2019,MySQL服务器版本为8.0.16。文章详细描述了API项目的创建过程、启动步骤以及必要的插件安装,为开发者提供了一套完整的开发指南。 ... [详细]
  • 如何使用 `org.apache.poi.openxml4j.opc.PackagePart` 类中的 `loadRelationships()` 方法及其代码示例详解 ... [详细]
  • 本文深入解析了WCF Binding模型中的绑定元素,详细介绍了信道、信道管理器、信道监听器和信道工厂的概念与作用。从对象创建的角度来看,信道管理器负责信道的生成。具体而言,客户端的信道通过信道工厂进行实例化,而服务端则通过信道监听器来接收请求。文章还探讨了这些组件之间的交互机制及其在WCF通信中的重要性。 ... [详细]
  • 在本地环境中部署了两个不同版本的 Flink 集群,分别为 1.9.1 和 1.9.2。近期在尝试启动 1.9.1 版本的 Flink 任务时,遇到了 TaskExecutor 启动失败的问题。尽管 TaskManager 日志显示正常,但任务仍无法成功启动。经过详细分析,发现该问题是由 Kafka 版本不兼容引起的。通过调整 Kafka 客户端配置并升级相关依赖,最终成功解决了这一故障。 ... [详细]
  • 本文介绍了如何利用ObjectMapper实现JSON与JavaBean之间的高效转换。ObjectMapper是Jackson库的核心组件,能够便捷地将Java对象序列化为JSON格式,并支持从JSON、XML以及文件等多种数据源反序列化为Java对象。此外,还探讨了在实际应用中如何优化转换性能,以提升系统整体效率。 ... [详细]
  • Vue应用预渲染技术详解与实践 ... [详细]
  • 贪心策略在算法设计中的应用与优化
    贪心算法在算法设计中具有广泛的应用,特别是在解决优化问题时表现出色。本文通过分析经典问题“买卖股票的最佳时机II”,探讨了贪心策略的基本原理及其在实际问题中的应用。通过实例分析,展示了贪心算法如何通过局部最优选择逐步达到全局最优解,并讨论了其在时间和空间复杂度上的优势。此外,还提出了一些优化方法,以提高算法的效率和适用性。 ... [详细]
  • 第二章:Kafka基础入门与核心概念解析
    本章节主要介绍了Kafka的基本概念及其核心特性。Kafka是一种分布式消息发布和订阅系统,以其卓越的性能和高吞吐量而著称。最初,Kafka被设计用于LinkedIn的活动流和运营数据处理,旨在高效地管理和传输大规模的数据流。这些数据主要包括用户活动记录、系统日志和其他实时信息。通过深入解析Kafka的设计原理和应用场景,读者将能够更好地理解其在现代大数据架构中的重要地位。 ... [详细]
author-avatar
像天使一样的笑着_917
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有