作者:gavinwu | 来源:互联网 | 2023-09-01 07:58
本文由编程笔记#小编为大家整理,主要介绍了ActionMQ集群部署相关的知识,希望对你有一定的参考价值。
ActiveMQ集群部署
一、应用场景
消息中间件是分布式系统中重要的组件,主要解决应用耦合,异步消息,流量削锋等问题。实现高性能,高可用,可伸缩和最终一致性架构。是大型分布式系统不可缺少的中间件。
目前在生产环境,使用较多的消息队列有ActiveMQ,RabbitMQ,ZeroMQ,Kafka,MetaMQ,RocketMQ等。
以下介绍消息队列在实际应用中常用的使用场景。异步处理,应用解耦,流量削锋和消息通讯四个场景。
1.1. 异步处理
场景说明:用户注册后,需要发注册邮件和注册短信。传统的做法有两种:
(1)串行方式:将注册信息写入数据库成功后,发送注册邮件,再发送注册短信。以上三个任务全部完成后,返回给客户端。
(2)并行方式:将注册信息写入数据库成功后,发送注册邮件的同时,发送注册短信以上三个任务完成后,返回给客户端。与串行的差别是,并行的方式可以提高处理的时间。
假设三个业务节点每个使用50毫秒钟,不考虑网络等其他开销,则串行方式的时间是150毫秒,并行的时间可能是100毫秒。因为CPU在单位时间内处理的请求数是一定的,假设CPU1秒内吞吐量是100次。则串行方式1秒内CPU可处理的请求量是7次(1000/150)。并行方式处理的请求量是10次(1000/100)。
如以上案例描述,传统的方式系统的性能(并发量,吞吐量,响应时间)会有瓶颈。如何解决这个问题呢?引入消息队列,将不是必须的业务逻辑,异步处理。改造后的架构如下:
按照以上约定,用户的响应时间相当于是注册信息写入数据库的时间,也就是50毫秒。注册邮件,发送短信写入消息队列后,直接返回,因此写入消息队列的速度很快,基本可以忽略,因此用户的响应时间可能是50毫秒。因此架构改变后,系统的吞吐量提高到每秒20 QPS。比串行提高了3倍,比并行提高了两倍。
1.2. 应用解耦
场景说明:用户下单后,订单系统需要通知库存系统。传统的做法是,订单系统调用库存系统的接口。传统模式的缺点:
1) 假如库存系统无法访问,则订单减库存将失败,从而导致订单失败;
2) 订单系统与库存系统耦合;
如何解决以上问题呢?引入消息队列后的方案,如下:
订单系统:用户下单后,订单系统完成持久化处理,将消息写入消息队列,返回用户订单下单成功。
库存系统:订阅下单的消息,采用拉/推的方式,获取下单信息,库存系统根据下单信息,进行库存操作。
假如:在下单时库存系统不能正常使用。也不影响正常下单,因为下单后,订单系统写入消息队列就不再关心其他的后续操作了。实现订单系统与库存系统的应用解耦。
1.3. 流量削峰
流量削锋也是消息队列中的常用场景,一般在秒杀、团抢活动中使用广泛,主要应用在突发性的流量激增场景
应用场景:秒杀活动,一般会因为流量过大,导致流量暴增,应用挂掉。为解决这个问题,一般需要在应用前端加入消息队列。
1. 可以控制活动的人数;
2. 可以缓解短时间内高流量压垮应用;
引入消息队列后的方案,如下:
1. 用户的请求,服务器接收后,首先写入消息队列。假如消息队列长度超过最大数量,则直接抛弃用户请求或跳转到错误页面;
2. 秒杀业务根据消息队列中的请求信息,再做后续处理。
1.4. 日志处理
日志处理是指将消息队列用在日志处理中,比如Kafka的应用,解决大量日志传输的问题。架构简化如下:
- 日志采集客户端,负责日志数据采集,定时写入Kafka队列;
- Kafka消息队列,负责日志数据的接收,存储和转发;
- 日志处理应用:订阅并消费kafka队列中的日志数据;
以下是新浪kafka日志处理应用案例:
(1)Kafka:接收用户日志的消息队列。
(2)Logstash:做日志解析,统一成JSON输出给Elasticsearch。
(3)Elasticsearch:实时日志分析服务的核心技术,一个schemaless,实时的数据存储服务,通过index组织数据,兼具强大的搜索和统计功能。
(4)Kibana:基于Elasticsearch的数据可视化组件,超强的数据可视化能力是众多公司选择ELK stack的重要原因。
二、集群方式部署
单点的ActiveMQ作为企业应用无法满足高可用和集群的需求,所以ActiveMQ提供了master-slave、broker cluster等多种部署方式,但通过分析多种部署方式之后我认为需要将两种部署方式相结合才能满足公司分布式和高可用的需求,所以后面就重点将解如何将两种部署方式相结合
2.1 Master-Slave(主从)
主要是通过共享存储目录来实现master和slave的热备,大概原理是,你设置N个broker,并且你们都用同一个文件目录保存信息,那么就有第一次获得文件的broker 作为master 提供服务,并对文件持有lock,其他broker 只能监听等待,等master 挂掉了,另外的broker 能立马补充上去。这种方式主要是让各实例持久化文件目录一致,具体配置如下:
修改配置文件/fs01/apache-activemq-5.15.0/conf/activemq.xml
在全局标签里添加数据源连接
在标签里添加持久化
dataDirectory="${activemq.base}/activemq-data"
dataSource="#oracle-ds" useDatabaseLock="true"/>
注意这里要把数据库连接驱动放在lib目录下:
[[email protected] lib]# pwd
/fs01/apache-activemq-5.15.0/lib
[[email protected] lib]# ll ojdbc7.jar
-rw-r--r-- 1 root root 3397734 12月 18 17:03 ojdbc7.jar
客户端连接地址修改:
failover:(tcp://broker1:61616,tcp://broker2:61616,tcp://broker3:61616)
完整xml文件:
xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd
http://activemq.apache.org/schema/core http://activemq.apache.org/schema/core/activemq-core.xsd">
file:${activemq.conf}/credentials.properties
lazy-init="false" scope="singleton"
init-method="start" destroy-method="stop">
dataDirectory="${activemq.base}/activemq-data"
dataSource="#oracle-ds" useDatabaseLock="true"/>
2.2 混合部署方式(集群)
这里以Broker-A + Broker-B建立cluster,Broker-C作为Broker-B的slave,Broker-D作为Broker-A的slave。。
1) 修改Broker-A节点中的服务提供端口为61616:
2) 修改Broker-B节点中的服务提供端口为61617:
3) 修改Broker-C节点中的服务提供端口为61618:
4) 修改Broker-D节点中的服务提供端口为61619:
5) 在Broker-A节点中添加networkConnector节点:
6) 在Broker-B节点中添加networkConnector节点:
7) 在Broker-C节点中添加networkConnector节点:
8) 在Broker-D节点中添加networkConnector节点:
9) 修改Broker-A节点中的持久化方式:
10) 修改Broker-B节点中的持久化方式:
11) 修改Broker-C节点中的持久化方式:
12) 修改Broker-D节点中的持久化方式:
13) 分别启动broker-A、broker-B、broker-C、broker-D
完成的配置文件:
xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd
http://activemq.apache.org/schema/core http://activemq.apache.org/schema/core/activemq-core.xsd">
file:${activemq.conf}/credentials.properties
lazy-init="false" scope="singleton"
init-method="start" destroy-method="stop">
登录activemq的web界面:http://10.90.6.153:8161/ 默认账号及密码:admin/admin
【简要描述】
Number Of Consumers 消费者 “这个是消费者端的消费者数量”
Number Of Pending Messages 等待消费的消息 “这个是当前未出队列的数量。可以理解为总接收数-总出队列数”
Messages Enqueued 进入队列的消息 “进入队列的总数量,包括出队列的。 这个数量只增不减”
Messages Dequeued 出了队列的消息 “可以理解为是消费这消费掉的数量”