热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

大数据命令

Linux(vivim)一般模式语法功能描述yy复制光标当前一行y数字y复制一段(从第几行到第几行)p箭头移动到目的行粘

Linux(vi/vim)


一般模式


语法功能描述
yy复制光标当前一行
y数字y复制一段(从第几行到第几行)
p箭头移动到目的行粘贴
u撤销上一步
dd删除光标当前行
d数字d删除光标(含)后多少行
x删除一个字母,相当于del
X删除一个字母,相当于Backspace
yw复制一个词
dw删除一个词
shift+^移动到行头
shift+$移动到行尾
1+shift+g移动到页头,数字
shift+g移动到页尾
数字N+shift+g移动到目标行

编辑模式


按键功能
i当前光标前
a当前光标后
o当前光标行的下一行
I光标所在行最前
A光标所在行最后
O当前光标行的上一行

指令模式


命令功能
:w保存
:q退出
:!强制执行
/要查找的词n 查找下一个,N 往上查找
? 要查找的词n是查找上一个,shift+n是往下查找
:set nu显示行号
:set nonu关闭行号

压缩和解压

gzip/gunzip 压缩

(1)只能压缩文件不能压缩目录

(2)不保留原来的文件

gzip压缩:gzip hello.txt

gunzip解压缩文件:gunzip hello.txt.gz

zip/unzip 压缩

可以压缩目录且保留源文件

zip压缩(压缩 1.txt 和2.txt,压缩后的名称为mypackage.zip):zip hello.zip hello.txt world.txt

unzip解压:unzip hello.zip

unzip解压到指定目录:unzip hello.zip -d /opt

tar 打包

tar压缩多个文件:tar -zcvf hello.txt world.txt

tar压缩目录:tar -zcvf hello.tar.gz opt/

tar解压到当前目录:tar -zxvf hello.tar.gz

tar解压到指定目录:tar -zxvf hello.tar.gz -C /opt

RPM

RPM查询命令:rpm -qa |grep firefox

RPM卸载命令:

rpm -e xxxxxx

rpm -e --nodeps xxxxxx(不检查依赖)

RPM安装命令:

rpm -ivh xxxxxx.rpm

rpm -ivh --nodeps fxxxxxx.rpm(--nodeps,不检测依赖进度)

选项功能
-i-i=install,安装
-v-v=verbose,显示详细信息
-h-h=hash,进度条
--nodeps--nodeps,不检测依赖进度



Shell


输入/输出重定向


命令功能说明
command > file将输出重定向到 file
command 将输入重定向到 file
command >> file将输出以追加的方式重定向到 file
n > file将文件描述符为 n 的文件重定向到 file
n >> file将文件描述符为 n 的文件以追加的方式重定向到 file
n >& m将输出文件 m 和 n 合并
n <& m将输入文件 m 和 n 合并
<将开始标记 tag 和结束标记 tag 之间的内容作为输入

脚本编辑


快捷方式功能说明
shift参数左移
$&#64;所有的参数
$#参数的个数



Hadoop


启动类命令


功能说明命令脚本
启动hdfs集群sbin/start-dfs.sh
启动yarnsbin/start-yarn.sh

hadoop fs/hdfs dfs 命令


功能说明命令
创建目录hdfs dfs -mkdir -p /data/flink
显示目录hdfs dfs -ls /
从HDFS拷贝到本地hdfs dfs -copyToLocal /data/data.txt ./
文件上传到集群(从本地)hhdfs dfs -copyFromLocal data.txt /
文件下载hdfs dfs -get /data/flink
删除集群的文件hdfs dfs -rm /data/flink
删除文件夹hdfs dfs -rm -r -skipTrash /data
从本地剪切粘贴到HDFShdfs dfs  -moveFromLocal data.txt /data/
追加一个文件到已经存在的文件末尾hdfs dfs -appendToFile data1.txt /data/data.txt
显示文件内容hdfs dfs -cat data.txt
修改文件所属权限hdfs dfs  -chmod  777 xxx.sh
修改文件所属用户组hdfs dfs  -chown  root:root data.txt
从HDFS的一个路径拷贝到HDFS的另一个路径hdfs dfs -cp data.txt /data1.txt
在HDFS目录中移动文件hdfs dfs -mv data.txt /opt/
合并下载多个文件hdfs dfs  -getmerge /data/* ./data_merge.txt
hadoop fs -put等同于copyFromLocal
显示一个文件的末尾hdfs dfs -tail data.txt
删除文件或文件夹hdfs dfs -rm /data/data.txt
删除空目录hdfs dfs -rmdir /data
统计文件夹的大小信息hdfs dfs -s -h /data
统计文件夹下的文件大小信息hdfs dfs  -h /data
设置HDFS中文件的副本数量hdfs dfs -setrep 3 /data/data.txt

yarn命令


功能说明命令
查看正在运行的yarn任务列表yarn application -list appID
kill掉指定id的yarn任务yarn application -kill appID
查看任务日志信息yarn logs -applicationId appID



Zookeeper


启动命令


功能说明命令脚本
启动zookeeper服务zkServer.sh start
查看zookeeper状态zkServer.sh status
停止zookeeper服务zkServer.sh stop
启动zookeeper客户端zkCli.sh -server 127.0.0.1:2181
退出zookeeper客户端quit

基本操作


功能说明命令脚本
当前znode中所包含的内容ls /
创建普通节点(前面是节点的路径&#xff0c;后面是值&#xff09;create /bigdata/flink "flink"
获取节点的值get /bigdata
修改节点的值set /bigdata/flink "flinksql"
删除节点delete /bigdata/flink
递归删除节点rmr /bigdata

四字母命令


命令功能说明例子
confzk服务配置的详细信息echo conf | nc 127.0.0.1 2181
stat客户端与zk连接的简要信息参考上面
srvrzk服务的详细信息参考上面
cons客户端与zk连接的详细信息参考上面
mntrzk服务目前的性能状况参考上面
crst重置当前的所有连接、会话参考上面
dump列出未经处理的会话和连接信息参考上面
envi列出zk的版本信息、主机名称、Java版本、服务器名称等等参考上面
ruok测试服务器是否正在运行&#xff0c;如果在运行返回imok&#xff0c;否则返回空参考上面
srst重置Zookeeper的所有统计信息参考上面
wchs列出watch的总数&#xff0c;连接数参考上面
wchp列出所有watch的路径及sessionID参考上面
mntr列出集群的关键性能数据&#xff0c;包括zk的版本、node数量、临时节点数等等参考上面



Kafka

「注:」 这里机器我只写一个。命令你们也可使用 ./bin/xx.sh (如&#xff1a;./bin/kafka-topics.sh)

查看当前服务器中的所有topic

kafka-topics --zookeeper xxxxxx:2181 --list --exclude-internal 说明&#xff1a;exclude-internal&#xff1a;排除kafka内部topic比如&#xff1a; --exclude-internal  --topic "test_.*"

创建topic

kafka-topics --zookeeper xxxxxx:2181  --create 
--replication-factor 
--partitions 1 
--topic topic_name说明&#xff1a;--topic 定义topic名--replication-factor  定义副本数--partitions  定义分区数

删除topic

「注意:」 需要server.properties中设置delete.topic.enable&#61;true否则只是标记删除

kafka-topics --zookeeper xxxxxx:2181 --delete --topic topic_name

生产者

kafka-console-producer --broker-list xxxxxx:9092 --topic topic_name可加&#xff1a;--property parse.key&#61;true&#xff08;有key消息&#xff09;

消费者

kafka-console-consumer --bootstrap-server xxxxxx:9092 --topic topic_name注&#xff1a;可选--from-beginning&#xff1a;会把主题中以往所有的数据都读取出来--whitelist &#39;.*&#39; &#xff1a;消费所有的topic--property print.key&#61;true&#xff1a;显示key进行消费--partition 0&#xff1a;指定分区消费--offset&#xff1a;指定起始偏移量消费

查看某个Topic的详情

kafka-topics --zookeeper xxxxxx:2181 --describe --topic topic_name

修改分区数

kafka-topics --zookeeper xxxxxx:2181 --alter --topic topic_name --partitions 6

查看某个消费者组信息

kafka-consumer-groups --bootstrap-server  xxxxxx:9092  --describe --group group_name 

删除消费者组

kafka-consumer-groups --bootstrap-server  xxxxxx:9092  ---delete --group group_name 

重置offset

kafka-consumer-groups --bootstrap-server  xxxxxx:9092  --group group_name--reset-offsets --all-topics --to-latest --execute 

leader重新选举

指定Topic指定分区用重新PREFERRED&#xff1a;优先副本策略 进行Leader重选举

kafka-leader-election --bootstrap-server xxxxxx:9092 
--topic topic_name --election-type PREFERRED --partition 0

所有Topic所有分区用重新PREFERRED&#xff1a;优先副本策略 进行Leader重选举

kafka-leader-election --bootstrap-server xxxxxx:9092 
--election-type preferred  --all-topic-partitions

查询kafka版本信息

kafka-configs --bootstrap-server xxxxxx:9092
--describe --version

增删改配置


功能说明参数
选择类型--entity-type (topics/clients/users/brokers/broker- loggers)
类型名称--entity-name
删除配置--delete-config k1&#61;v1,k2&#61;v2
添加/修改配置--add-config k1,k2

topic添加/修改动态配置

kafka-configs --bootstrap-server xxxxxx:9092
--alter --entity-type topics --entity-name topic_name 
--add-config file.delete.delay.ms&#61;222222,retention.ms&#61;999999

topic删除动态配置

kafka-configs --bootstrap-server xxxxxx:9092 
--alter --entity-type topics --entity-name topic_name 
--delete-config file.delete.delay.ms,retention.ms

持续批量拉取消息

单次最大消费10条消息(不加参数意为持续消费)

kafka-verifiable-consumer --bootstrap-server xxxxxx:9092 
--group group_name
--topic topic_name --max-messages 10

删除指定分区的消息

删除指定topic的某个分区的消息删除至offset为1024

json文件offset-json-file.json

{"partitions": [{"topic": "topic_name","partition": 0,"offset": 1024}],"version": 1
}

kafka-delete-records --bootstrap-server xxxxxx:9092 
--offset-json-file offset-json-file.json

查看Broker磁盘信息

查询指定topic磁盘信息

kafka-log-dirs --bootstrap-server xxxxxx:9090 
--describe --topic-list topic1,topic2

查询指定Broker磁盘信息

kafka-log-dirs --bootstrap-server xxxxxx:9090 
--describe --topic-list topic1 --broker-list 0

Hive


启动类


功能说明命令
启动hiveserver2服务bin/hiveserver2
启动beelinebin/beeline
连接hiveserver2beeline> !connect jdbc:hive2://hadoop102:10000
metastroe服务bin/hive --service metastore

hive 启动元数据服务&#xff08;metastore和hiveserver2&#xff09;和优雅关闭脚本

启动&#xff1a;hive.sh start
关闭&#xff1a;hive.sh stop
重启&#xff1a;hive.sh restart
状态&#xff1a;hive.sh status

脚本如下

#!/bin/bash
HIVE_LOG_DIR&#61;$HIVE_HOME/logsmkdir -p $HIVE_LOG_DIR#检查进程是否运行正常&#xff0c;参数1为进程名&#xff0c;参数2为进程端口
function check_process()
{pid&#61;$(ps -ef 2>/dev/null | grep -v grep | grep -i $1 | awk &#39;{print $2}&#39;)ppid&#61;$(netstat -nltp 2>/dev/null | grep $2 | awk &#39;{print $7}&#39; | cut -d &#39;/&#39; -f 1)echo $pid[[ "$pid" &#61;~ "$ppid" ]] && [ "$ppid" ] && return 0 || return 1
}function hive_start()
{metapid&#61;$(check_process HiveMetastore 9083)cmd&#61;"nohup hive --service metastore >$HIVE_LOG_DIR/metastore.log 2>&1 &"cmd&#61;$cmd" sleep4; hdfs dfsadmin -safemode wait >/dev/null 2>&1"[ -z "$metapid" ] && eval $cmd || echo "Metastroe服务已启动"server2pid&#61;$(check_process HiveServer2 10000)cmd&#61;"nohup hive --service hiveserver2 >$HIVE_LOG_DIR/hiveServer2.log 2>&1 &"[ -z "$server2pid" ] && eval $cmd || echo "HiveServer2服务已启动"
}function hive_stop()
{metapid&#61;$(check_process HiveMetastore 9083)[ "$metapid" ] && kill $metapid || echo "Metastore服务未启动"server2pid&#61;$(check_process HiveServer2 10000)[ "$server2pid" ] && kill $server2pid || echo "HiveServer2服务未启动"
}case $1 in
"start")hive_start;;
"stop")hive_stop;;
"restart")hive_stopsleep 2hive_start;;
"status")check_process HiveMetastore 9083 >/dev/null && echo "Metastore服务运行正常" || echo "Metastore服务运行异常"check_process HiveServer2 10000 >/dev/null && echo "HiveServer2服务运行正常" || echo "HiveServer2服务运行异常";;
*)echo Invalid Args!echo &#39;Usage: &#39;$(basename $0)&#39; start|stop|restart|status&#39;;;
esac

常用交互命令


功能说明命令
不进入hive的交互窗口执行sqlbin/hive -e "sql语句"
执行脚本中sql语句bin/hive -f hive.sql
退出hive窗口exit 或 quit
命令窗口中查看hdfs文件系统dfs -ls /
命令窗口中查看hdfs文件系统! ls /data/h

SQL类(特殊的)


说明语句
查看hive中的所有数据库show databases
用default数据库use default
查询表结构desc table_name
查看数据库show databases
重命名表名alter table table1 rename to table2
修改表中字段alter table table_name change name user_name String
修改字段类型alter table table_name change salary salary Double
创建外部表create external table ....
查询外部表信息desc formatted outsidetable
创建视图create view view_name as select * from table_name .....
添加数据load data local inpath &#39;xxx&#39;  overwrite into table table_name partition(day&#61;&#39;2021-12-01&#39;)

内置函数

&#xff08;1&#xff09; NVL

给值为NULL的数据赋值&#xff0c;它的格式是NVL( value&#xff0c;default_value)。它的功能是如果value为NULL&#xff0c;则NVL函数返回default_value的值&#xff0c;否则返回value的值&#xff0c;如果两个参数都为NULL &#xff0c;则返回NULL

select nvl(column, 0) from xxx&#xff1b;

&#xff08;2&#xff09;行转列

函数描述
CONCAT(string A/col, string B/col…)返回输入字符串连接后的结果&#xff0c;支持任意个输入字符串
CONCAT_WS(separator, str1, str2,...)第一个参数参数间的分隔符&#xff0c;如果分隔符是 NULL&#xff0c;返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间。
COLLECT_SET(col)将某字段的值进行去重汇总&#xff0c;产生array类型字段
COLLECT_LIST(col)函数只接受基本数据类型&#xff0c;它的主要作用是将某字段的值进行不去重汇总&#xff0c;产生array类型字段。

&#xff08;3&#xff09;列转行(一列转多行)

「Split(str, separator)&#xff1a;」 将字符串按照后面的分隔符切割&#xff0c;转换成字符array。

「EXPLODE(col)&#xff1a;」将hive一列中复杂的array或者map结构拆分成多行。

「LATERAL VIEW」

用法&#xff1a;LATERAL VIEW udtf(expression) tableAlias AS columnAlias

解释&#xff1a;lateral view用于和split, explode等UDTF一起使用&#xff0c;它能够将一行数据拆成多行数据&#xff0c;在此基础上可以对拆分后的数据进行聚合。

lateral view首先为原始表的每行调用UDTF&#xff0c;UDTF会把一行拆分成一或者多行&#xff0c;lateral view再把结果组合&#xff0c;产生一个支持别名表的虚拟表。

「准备数据源测试」

moviecategory
《功勋》记录,剧情
《战狼2》战争,动作,灾难

「SQL」

SELECT movie,category_name 
FROM movie_info 
lateral VIEW
explode(split(category,",")) movie_info_tmp  AS category_name ;

「测试结果」

《功勋》      记录
《功勋》      剧情
《战狼2》     战争
《战狼2》     动作
《战狼2》     灾难

窗口函数

&#xff08;1&#xff09;OVER()

定分析函数工作的数据窗口大小&#xff0c;这个数据窗口大小可能会随着行的变而变化。

&#xff08;2&#xff09;CURRENT ROW&#xff08;当前行&#xff09;

n PRECEDING&#xff1a;往前n行数据n FOLLOWING&#xff1a;往后n行数据

&#xff08;3&#xff09;UNBOUNDED&#xff08;无边界&#xff09;

UNBOUNDED PRECEDING 前无边界&#xff0c;表示从前面的起点UNBOUNDED FOLLOWING后无边界&#xff0c;表示到后面的终点

「SQL案例&#xff1a;由起点到当前行的聚合」

select sum(money) over(partition by user_id order by pay_time rows between UNBOUNDED PRECEDING and current row) 
from or_order;

「SQL案例&#xff1a;当前行和前面一行做聚合」

select sum(money) over(partition by user_id order by pay_time rows between 1 PRECEDING and current row) 
from or_order;

「SQL案例&#xff1a;当前行和前面一行和后一行做聚合」

select sum(money) over(partition by user_id order by pay_time rows between 1 PRECEDING AND 1 FOLLOWING )
from or_order;

「SQL案例&#xff1a;当前行及后面所有行」

select sum(money) over(partition by user_id order by pay_time rows between current row and UNBOUNDED FOLLOWING  )
from or_order;

&#xff08;4&#xff09;LAG(col,n,default_val)

往前第n行数据&#xff0c;没有的话default_val

&#xff08;5&#xff09;LEAD(col,n, default_val)

往后第n行数据&#xff0c;没有的话default_val

「SQL案例&#xff1a;查询用户购买明细以及上次的购买时间和下次购买时间」

select user_id,,pay_time,money,lag(pay_time,1,&#39;1970-01-01&#39;) over(PARTITION by name order by pay_time) prev_time,lead(pay_time,1,&#39;1970-01-01&#39;) over(PARTITION by name order by pay_time) next_time
from or_order;

&#xff08;6&#xff09;FIRST_VALUE(col,true/false)

当前窗口下的第一个值&#xff0c;第二个参数为true&#xff0c;跳过空值。

&#xff08;7&#xff09;LAST_VALUE (col,true/false)

当前窗口下的最后一个值&#xff0c;第二个参数为true&#xff0c;跳过空值。

「SQL案例&#xff1a;查询用户每个月第一次的购买时间 和 每个月的最后一次购买时间」

selectFIRST_VALUE(pay_time) over(partition by user_id,month(pay_time) order by pay_time rows between UNBOUNDED PRECEDING and UNBOUNDED FOLLOWING) first_time,LAST_VALUE(pay_time) over(partition by user_id,month(pay_time) order by pay_time rows between UNBOUNDED PRECEDING and UNBOUNDED FOLLOWING) last_time
from or_order;

&#xff08;8&#xff09;NTILE(n)

把有序窗口的行分发到指定数据的组中&#xff0c;各个组有编号&#xff0c;编号从1开始&#xff0c;对于每一行&#xff0c;NTILE返回此行所属的组的编号。&#xff08;用于将分组数据按照顺序切分成n片&#xff0c;返回当前切片值&#xff09;

「SQL案例&#xff1a;查询前25%时间的订单信息」

select * from (select User_id,pay_time,money,ntile(4) over(order by pay_time) sortedfrom or_order
) t
where sorted &#61; 1;

4个By

&#xff08;1&#xff09;Order By

全局排序&#xff0c;只有一个Reducer。

&#xff08;2&#xff09;Sort By

分区内有序。

&#xff08;3&#xff09;Distrbute By

类似MR中Partition&#xff0c;进行分区&#xff0c;结合sort by使用。

&#xff08;4&#xff09; Cluster By

当Distribute by和Sorts by字段相同时&#xff0c;可以使用Cluster by方式。Cluster by除了具有Distribute by的功能外还兼具Sort by的功能。但是排序只能是升序排序&#xff0c;不能指定排序规则为ASC或者DESC。

在生产环境中Order By用的比较少&#xff0c;容易导致OOM。

在生产环境中Sort By&#43; Distrbute By用的多。

排序函数

&#xff08;1&#xff09;RANK()

排序相同时会重复&#xff0c;总数不会变

1
1
3
3
5

&#xff08;2&#xff09;DENSE_RANK()

排序相同时会重复&#xff0c;总数会减少

1
1
2
2
3

&#xff08;3&#xff09;ROW_NUMBER()

会根据顺序计算

1
2
3
4
5

日期函数

datediff&#xff1a;返回结束日期减去开始日期的天数

datediff(string enddate, string startdate) select datediff(&#39;2021-11-20&#39;,&#39;2021-11-22&#39;) 

date_add&#xff1a;返回开始日期startdate增加days天后的日期

date_add(string startdate, int days) select date_add(&#39;2021-11-20&#39;,3) 

date_sub&#xff1a;返回开始日期startdate减少days天后的日期

date_sub (string startdate, int days) select date_sub(&#39;2021-11-22&#39;,3)



Redis


启动类


key


命令功能说明
keys  *查看当前库的所有键
exists判断某个键是否存在
type查看键的类型
del删除某个键
expire为键值设置过期时间&#xff0c;单位秒
ttl查看还有多久过期,-1表示永不过期,-2表示已过期
dbsize查看当前数据库中key的数量
flushdb清空当前库
Flushall通杀全部库

String


命令功能说明
get查询对应键值
set添加键值对
append将给定的追加到原值的末尾
strlen获取值的长度
setnx只有在key 不存在时设置key的值
incr将key中存储的数字值增1只能对数字值操作&#xff0c;如果为空&#xff0c;新增值为1
decr将key中存储的数字值减1只能对数字之操作&#xff0c;如果为空,新增值为-1
incrby /decrby步长将key中存储的数字值增减&#xff0c;自定义步长
mset同时设置一个或多个key-value对
mget同时获取一个或多个value
msetnx同时设置一个或多个key-value对&#xff0c;当且仅当所有给定的key都不存在
getrange<起始位置> <结束位置>获得值的范围,类似java中的substring
setrange<起始位置>用覆盖所存储的字符串值&#xff0c;从<起始位置>开始
setex<过期时间>设置键值的同时&#xff0c;设置过去时间&#xff0c;单位秒
getset以新换旧,设置了新值的同时获取旧值

List


命令功能说明
lpush/rpush从左边/右边插入一个或多个值。
lpop/rpop从左边/右边吐出一个值。值在键在&#xff0c;值光键亡。
rpoplpush从列表右边吐出一个值&#xff0c;插到列表左边
lrange按照索引下标获得元素(从左到右)
lindex按照索引下标获得元素(从左到右)
llen获得列表长度
linsertbefore在的后面插入插入值
lrem从左边删除n个value(从左到右)

Set


命令功能说明
sadd....将一个或多个 member 元素加入到集合 key 当中&#xff0c;已经存在于集合的 member 元素将被忽略。
smembers取出该集合的所有值。
sismember判断集合是否为含有该值&#xff0c;有返回1&#xff0c;没有返回0
scard返回该集合的元素个数。
srem....删除集合中的某个元素。
spop随机从该集合中吐出一个值。
srandmember随机从该集合中取出n个值。不会从集合中删除
sinter返回两个集合的交集元素。
sunion返回两个集合的并集元素。
sdiff返回两个集合的差集元素。

Hash


命令功能说明
hset给集合中的键赋值
hget从集合取出 value
hmset...批量设置hash的值
hexists key查看哈希表 key 中&#xff0c;给定域 field 是否存在。
hkeys列出该hash集合的所有field
hvals列出该hash集合的所有value
hincrby为哈希表 key 中的域 field 的值加上增量 increment
hsetnx将哈希表 key 中的域 field 的值设置为 value &#xff0c;当且仅当域 field 不存在

zset(Sorted set)


命令功能说明
zadd...将一个或多个 member 元素及其 score 值加入到有序集 key 当中
zrange[WITHSCORES]返回有序集 key 中&#xff0c;下标在之间的元素带WITHSCORES&#xff0c;可以让分数一起和值返回到结果集。
zrangebyscore key min max [withscores] [limit offset count]返回有序集 key 中&#xff0c;所有 score 值介于 min 和 max 之间(包括等于 min 或 max )的成员。有序集成员按 score 值递增(从小到大)次序排列。
zrevrangebyscore key max min [withscores] [limit offset count]同上&#xff0c;改为从大到小排列。
zincrby为元素的score加上增量
zrem删除该集合下&#xff0c;指定值的元素
zcount统计该集合&#xff0c;分数区间内的元素个数
zrank返回该值在集合中的排名&#xff0c;从0开始。



Flink


启动

./start-cluster.sh 

run

./bin/flink run [OPTIONS]./bin/flink run -m yarn-cluster -c com.wang.flink.WordCount /opt/app/WordCount.jar

OPTIONS功能说明
-ddetached 是否使用分离模式
-mjobmanager 指定提交的jobmanager
-yat–yarnapplicationType 设置yarn应用的类型
-yD使用给定属性的值
-yd–yarndetached 使用yarn分离模式
-yh–yarnhelp yarn session的帮助
-yid–yarnapplicationId 挂到正在运行的yarnsession上
-yj–yarnjar Flink jar文件的路径
-yjm–yarnjobManagerMemory jobmanager的内存(单位M)
-ynl–yarnnodeLabel 指定 YARN 应用程序 YARN 节点标签
-ynm–yarnname 自定义yarn应用名称
-yq–yarnquery 显示yarn的可用资源
-yqu–yarnqueue 指定yarn队列
-ys–yarnslots 指定每个taskmanager的slots数
-ytyarnship 在指定目录中传输文件
-ytm–yarntaskManagerMemory 每个taskmanager的内存
-yz–yarnzookeeperNamespace 用来创建ha的zk子路径的命名空间
-z–zookeeperNamespace 用来创建ha的zk子路径的命名空间
-p并行度
-yn需要分配的YARN容器个数(&#61;任务管理器的数量)

info

./bin/flink info [OPTIONS]

OPTIONS功能说明
-c程序进入点&#xff0c;主类
-p并行度

list

./bin/flink list [OPTIONS]

OPTIONS功能说明
-a–all 显示所有应用和对应的job id
-r–running 显示正在运行的应用和job id
-s–scheduled 显示调度的应用和job id
-m–jobmanager 指定连接的jobmanager
-yid–yarnapplicationId 挂到指定的yarn id对应的yarn session上
-z–zookeeperNamespace 用来创建ha的zk子路径的命名空间

stop

./bin/flink stop  [OPTIONS] 

OPTIONS功能说明
-d在采取保存点和停止管道之前&#xff0c;发送MAX_WATERMARK
-psavepointPath 保存点的路径 &#39;xxxxx&#39;
-m–jobmanager 指定连接的jobmanager
-yid–yarnapplicationId 挂到指定的yarn id对应的yarn session上
-z–zookeeperNamespace 用来创建ha的zk子路径的命名空间

cancel(弱化)

./bin/flink cancel  [OPTIONS] 

OPTIONS功能说明
-s使用 "stop "代替
-D允许指定多个通用配置选项
-m要连接的JobManager的地址
-yid–yarnapplicationId 挂到指定的yarn id对应的yarn session上
-z–zookeeperNamespace 用来创建ha的zk子路径的命名空间

savepoint

./bin/flink savepoint  [OPTIONS] 

OPTIONS功能说明
-d要处理的保存点的路径
-jFlink程序的JAR文件
-m要连接的JobManager的地址
-yid–yarnapplicationId 挂到指定的yarn id对应的yarn session上
-z–zookeeperNamespace 用来创建ha的zk子路径的命名空间

推荐阅读
  •     这里使用自己编译的hadoop-2.7.0版本部署在windows上,记得几年前,部署hadoop需要借助于cygwin,还需要开启ssh服务,最近发现,原来不需要借助cy ... [详细]
  • HDFS2.x新特性
    一、集群间数据拷贝scp实现两个远程主机之间的文件复制scp-rhello.txtroothadoop103:useratguiguhello.txt推pushscp-rr ... [详细]
  • Linux如何安装Mongodb的详细步骤和注意事项
    本文介绍了Linux如何安装Mongodb的详细步骤和注意事项,同时介绍了Mongodb的特点和优势。Mongodb是一个开源的数据库,适用于各种规模的企业和各类应用程序。它具有灵活的数据模式和高性能的数据读写操作,能够提高企业的敏捷性和可扩展性。文章还提供了Mongodb的下载安装包地址。 ... [详细]
  • 本文介绍了将mysql从5.6.15升级到5.7.15的详细步骤,包括关闭访问、备份旧库、备份权限、配置文件备份、关闭旧数据库、安装二进制、替换配置文件以及启动新数据库等操作。 ... [详细]
  • centos安装Mysql的方法及步骤详解
    本文介绍了centos安装Mysql的两种方式:rpm方式和绿色方式安装,详细介绍了安装所需的软件包以及安装过程中的注意事项,包括检查是否安装成功的方法。通过本文,读者可以了解到在centos系统上如何正确安装Mysql。 ... [详细]
  • 一次上线事故,30岁+的程序员踩坑经验之谈
    本文主要介绍了一位30岁+的程序员在一次上线事故中踩坑的经验之谈。文章提到了在双十一活动期间,作为一个在线医疗项目,他们进行了优惠折扣活动的升级改造。然而,在上线前的最后一天,由于大量数据请求,导致部分接口出现问题。作者通过部署两台opentsdb来解决问题,但读数据的opentsdb仍然经常假死。作者只能查询最近24小时的数据。这次事故给他带来了很多教训和经验。 ... [详细]
  • CentOS7.8下编译muduo库找不到Boost库报错的解决方法
    本文介绍了在CentOS7.8下编译muduo库时出现找不到Boost库报错的问题,并提供了解决方法。文章详细介绍了从Github上下载muduo和muduo-tutorial源代码的步骤,并指导如何编译muduo库。最后,作者提供了陈硕老师的Github链接和muduo库的简介。 ... [详细]
  • 本文介绍了使用readlink命令获取文件的完整路径的简单方法,并提供了一个示例命令来打印文件的完整路径。共有28种解决方案可供选择。 ... [详细]
  • 面试经验分享:华为面试四轮电话面试、一轮笔试、一轮主管视频面试、一轮hr视频面试
    最近有朋友去华为面试,面试经历包括四轮电话面试、一轮笔试、一轮主管视频面试、一轮hr视频面试。80%的人都在第一轮电话面试中失败,因为缺乏基础知识。面试问题涉及 ... [详细]
  • top命令使用方法及解读
    本文介绍了top命令的使用方法和解读,包括查看进程信息、系统负载、内存状态、CPU占用等内容。通过top命令可以持续观察系统上运行的进程,并了解系统负载情况,及时关闭一些进程以减轻系统负担。同时,还介绍了top命令的快捷键和安全模式启动方法。通过本文的学习,读者可以更好地使用top命令来管理系统进程。 ... [详细]
  • 本文详细介绍了在Linux虚拟化部署中进行VLAN配置的方法。首先要确认Linux系统内核是否已经支持VLAN功能,然后配置物理网卡、子网卡和虚拟VLAN网卡的关系。接着介绍了在Linux配置VLAN Trunk的步骤,包括将物理网卡添加到VLAN、检查添加的VLAN虚拟网卡信息以及重启网络服务等。最后,通过验证连通性来确认配置是否成功。 ... [详细]
  • 第四讲ApacheLAMP服务器基本配置Apache的编译安装从Apache的官方网站下载源码包:http:httpd.apache.orgdownload.cgi今 ... [详细]
  • 进入配置文件目录:[rootlinuxidcresin-4.0.]#cdusrlocalresinconf查看都有哪些配置文件:[rootlinuxid ... [详细]
  • Linux ls只显示以.qcow2结尾的文件
    ls-al|grep-Eqcow2$ ... [详细]
  • Telnet的使用(Telnet远程连接Linux)
    一、环境描述:客户端:Win10操作系统 ... [详细]
author-avatar
l清笛l
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有