作者:fseiei | 来源:互联网 | 2024-11-07 19:17
本文深入解析了Presto这一高效的即席查询引擎,详细探讨了其架构设计及其优缺点。Presto通过内存到内存的数据处理方式,显著提升了查询性能,相比传统的MapReduce查询,不仅减少了数据传输的延迟,还提高了查询的准确性和效率。然而,Presto在大规模数据处理和容错机制方面仍存在一定的局限性。本文还介绍了Presto在实际应用中的多种场景,展示了其在大数据分析领域的强大潜力。
一、Presto架构
二、优缺点 优点 1、Presto采用内存到内存的方式,相对于Mapreduce查询(容错机制,为了保障准确性,中间写入磁盘),减少了中间写入磁盘,从磁盘读取数据的方式。计算更快 2、减少阶段间的等待时间,Mapreduce不支持DAG,maptask未完成,不能执行reduce,Presto采取管道式传输的方式,边清理内存,边计算。 3、可以连接多个数据源,比如同时查询hive和mysql的数据再合并 缺点 三、安装 0)官网地址 https://prestodb.github.io/
1)下载地址 https://repo1.maven.org/maven2/com/facebook/presto/presto-server/0.196/presto-server-0.196.tar.gz
2)将presto-server-0.196.tar.gz导入hadoop102的/opt/software目录下,并解压到/opt/module目录
tar -zxvf presto-server-0.196.tar.gz -C /opt/module/
3)修改名称为presto,方便查看 mv presto-server-0.196/ presto
4)进入到/opt/module/presto目录,并创建存储数据文件夹,并创建存储配置文件文件夹 mkdir data etc
5)在presto/etc 目录下添加jvm.config 配置文件 vim jvm.config
-server -Xmx16G -XX:+UseG1GC -XX:G1HeapRegionSize=32M -XX:+UseGCOverheadLimit -XX:+ExplicitGCInvokesConcurrent -XX:+HeapDumpOnOutOfMemoryError -XX:+ExitOnOutOfMemoryError
6)Presto可以支持多个数据源catalog,这里我们配置支持Hive的数据源,配置一个Hive的catalog mkdir catalog vim hive.properties connector.name= hive-hadoop2 hive.metastore.uri= thrift://hadoop102:9083
7)将hadoop102上的presto同步到hadoop103、hadoop104 8)分发之后,分别进入hadoop102、hadoop103、hadoop104三台主机的/opt/module/presto/etc的路径。配置node属性,node id每个节点都不一样。 [ kele@hadoop102 etc] $vim node.properties node.environment= production node.id= ffffffff-ffff-ffff-ffff-ffffffffffff node.data-dir= /opt/module/presto/data[ kele@hadoop103 etc] $vim node.properties node.environment= production node.id= ffffffff-ffff-ffff-ffff-fffffffffffa node.data-dir= /opt/module/presto/data[ kele@hadoop104 etc] $vim node.properties node.environment= production node.id= ffffffff-ffff-ffff-ffff-fffffffffffb node.data-dir= /opt/module/presto/data
9)Presto是由一个coordinator节点和多个worker节点组成。 配置方式 hadoop102 hadoop103 hadoop104 coordinator worker worker
10)hadoop102上配置coordinator节点 进入 etc/config.properties 添加内容如下 coordinator= true node-scheduler.include-coordinator= false http-server.http.port= 8881 query.max-memory= 50GB discovery-server.enabled= true discovery.uri= http://hadoop102:8881
(2)hadoop103、hadoop104上配置worker节点,进入 etc/config.properties
添加内容如下 coordinator=false http-server.http.port=8881 query.max-memory=50GB discovery.uri=http://hadoop102:8881
11)在hadoop102的/opt/module/hive目录下,启动Hive Metastore,用kele角色,后台启动 [ kele@hadoop102 hive] $nohup bin/hive --service metastore > /dev/null 2> & 1 &
12)分别在hadoop102、hadoop103、hadoop104上启动Presto Server (1)如果前台启动Presto,控制台显示日志
[ kele@hadoop102 presto] $ bin/launcher run[ kele@hadoop103 presto] $ bin/launcher run[ kele@hadoop104 presto] $ bin/launcher run
(2)如果后台启动Presto
[ kele@hadoop102 presto] $ bin/launcher start[ kele@hadoop103 presto] $ bin/launcher start[ kele@hadoop104 presto] $ bin/launcher start
/opt/module/presto/data/var/log
Client安装
java -jar presto-cli.jar --server hadoop102:8881 --catalog hive --schema default
启动 注意:
1、Presto不支持读取Text + Lzo的方式,
2、如果需要以lzo的方式读取数据,需要添加hadoop-lzo的jar包到presto的hive-hadoop2的目录下
cp /opt/module/hadoop/share/hadoop/common/hadoop-lzo-0.4.20.jar /opt/module/presto/plugin/hive-hadoop2/
四、界面 使用presto连接jdbc,适用于dberver使用即席查询时连接
jdbc连接jar包已上传
注意:Presto使用的是Presto支持的SQL语法和函数!