Spring Cloud Stream 的基本架构

共 5526字,需浏览 12分钟

 ·

2021-03-18 09:41

点击上方蓝色字体,选择“标星公众号”

优质文章,第一时间送达

接着上篇内容(事件驱动架构的基本原理,以及 Spring 中对消息传递机制的抽象和对应的开发框架)继续说,


要想在 SpringHealth 案例系统中添加消息发送和接收的效果有很多种实现方法,完全可以直接使用诸如RocketMQ、RabbitMQ、Kafka 等消息中间件来实现消息传递,考虑不同框架的使用方式以及框架之间存在的功能差异性。

而 Spring Cloud Stream ,它在内部整合了多款主流的消息中间件,提供了一个平台型解决方案,从而屏蔽各个消息中间件在技术实现上的差异。


Spring Cloud Stream 的基本架构,并给出它与目前主流的各种消息中间件之间的整合机制。


Spring Cloud Stream 构建消息传递机制的基本工作流程。区别于直接使用 RabbitMQ、Kafka 、RocketMQ等消息中间件,Spring Cloud Stream 在消息生产者和消费者之间添加了一种桥梁机制,所有的消息都将通过 Spring Cloud Stream 进行发送和接收,如下图所示:

=Spring Cloud Stream 工作流程图=

图中,看出 Spring Cloud Stream 具备四个核心组件,分别是 Binder、Channel、Source 和 Sink,其中 Binder 和 Channel 成对出现,而 Source 和 Sink 分别面向消息的发布者和消费者。


Source 和 Sink

在 Spring Cloud Stream 中,Source 组件是真正生成消息的组件,相当于是一个输出(Output)组件。而 Sink 则是真正消费消息的组件,相当于是一个输入(Input)组件。根据对事件驱动架构的了解,对于同一个 Source 组件而言,不同的微服务可能会实现不同的 Sink 组件,分别根据自身需求进行业务上的处理。


在 Spring Cloud Stream 中,Source 组件使用一个普通的 POJO 对象来充当需要发布的消息,通过将该对象进行序列化(默认的序列化方式是 JSON)然后发布到 Channel 中。另一方面,Sink 组件监听 Channel 并等待消息的到来,一旦有可用消息,Sink 将该消息反序列化为一个 POJO 对象并用于处理业务逻辑。


Channel

Channel 的概念比较容易理解,就是常见的通道,是对队列的一种抽象。在消息传递系统中,队列的作用就是实现存储转发的媒介,消息生产者所生成的消息都将保存在队列中并由消息消费者进行消费。通道的名称对应的往往就是队列的名称。

Binder

Spring Cloud Stream 中最重要的概念就是 Binder。所谓 Binder,顾名思义就是一种黏合剂,将业务服务与消息传递系统黏合在一起。通过 Binder,可以很方便地连接消息中间件,可以动态的改变消息的目标地址、发送方式而不需要了解其背后的各种消息中间件在实现上的差异。

Spring Cloud Stream 集成 Spring 消息处理机制

Spring Cloud Stream 中Source 和 Sink 都是接口,其中 Source 接口的定义如下:

import org.springframework.cloud.stream.annotation.Output;
import org.springframework.messaging.MessageChannel;
  
public interface Source {
 
    String OUTPUT = "output";
 
    @Output(Source.OUTPUT)
    MessageChannel output();
}

注意到这里通过 MessageChannel 来发送消息,而 MessageChannel 类来自 Spring Messaging 组件。在 MessageChannel 上发现了一个 @Output 注解,该注解定义了一个输出通道。


类似的,Sink 接口定义如下:

import org.springframework.cloud.stream.annotation.Input;
import org.springframework.messaging.SubscribableChannel;
  
public interface Sink{
 
    String INPUT = "input";
 
    @Input(Sink.INPUT)
    SubscribableChannel input();
}

同样,这里通过 Spring Messaging 中的 SubscribableChannel 来实现消息接收,而 @Input 注解定义了一个输入通道。


注意到 @Input 和 @Output 注解使用通道名称作为参数,如果没有名称,会使用带注解的方法名字作为参数,也就是默认情况下分别使用“input”和“output”作为通道名称。从这个角度讲,一个 Spring Cloud Stream 应用程序中的 Input 和 Output 通道数量和名称都是可以任意设置的,只需要在这些通道的定义上添加 @Input 和 @Output 注解即可。例如在如下所示的代码中,定义了 SpringHealthChannel 接口并声明了一个 Input 通道和两个 Output 通道,说明使用该通道的服务会从外部的一个通道中获取消息并向外部的两个通道发送消息:

public interface SpringHealthChannel {
  
     @Input
     SubscribableChannel input1();
  
     @Output
     MessageChannel output1();
  
     @Output
     MessageChannel output2();
}

可以看到上述接口定义中同时使用到了 Spring Messaging 中的 SubscribableChannel 和 MessageChannel。Spring Cloud Stream 对 Spring Messaging 和 Spring Integration 提供了原生支持。在常规情况下,不需要使用这些框架中提供的API就能完成常见的开发需求。但如果确实有需要,也可以使用更为底层 API 直接操控消息发布和接收过程。


Spring Cloud Stream 集成消息中间件


Spring Cloud Stream ,最核心的无疑是 Binder 组件。


Binder 组件是服务与消息中间件之间的一层抽象,各种消息中间件在消息传递机制的设计和实现上存在一定的差异性,我将梳理 Spring Cloud Stream 中的消息传递模型,并给出 Binder 与消息中间件如何进行整合的过程。


== =Spring Cloud Stream 中的消息传递模型= ==


Stream 将消息发布和消费抽象成如下三个核心概念,并结合目前主流的一些消息中间件对这些概念提供了统一的实现方式。


1、发布-订阅模型

点对点模型和发布-订阅模型是传统消息传递系统的两大基本模型,其中点对点模型实际上可以被视为发布-订阅模型在订阅者数量为 1 时的一种特例。Stream 中,统一通过发布-订阅模型完成消息的发布和消费,如下所示:

消息发布-订阅模型示意图


2、消费者组

设计消费者组(Consumer Group)的目的是应对集群环境下的多服务实例问题。显然,如果采用发布-订阅模式就会导致一个服务的不同实例都消费到了同一条消息。为了解决这个问题, Stream 中提供了消费者组的概念。一旦使用了消费组,一条消息就只能被同一个组中的某一个服务实例所消费。消费者的基本结构如下图所示(其中虚线表示不会发生的消费场景):


消费者组结构示意图

3. 消息分区


假如希望相同的消息都被同一个微服务实例来处理,但又有多个服务实例组成了负载均衡结构,那么通过上述的消费组概念仍然不能满足要求。针对这一场景, Stream 又引入了消息分区(Partition)的概念。引入分区概念的意义在于,同一分区中的消息能够确保始终是由同一个消费者实例进行消费。尽管消息分区的应用场景并没有那么广泛,但如果想要达到类似的效果, Stream 也为提供了一种简单的实现方案,消息分区的基本结构如下图所示:

=消息分区结构示意图=


Binder 与消息中间件


Binder 组件本质上是一个中间层,负责与各种消息中间件的交互。目前 Stream 中集成的消息中间件包括 RabbitMQ和Kafka。如何使用 Spring Cloud Stream 进行消息发布和消费之前,先来结合消息传递机制给出 Binder 对这两种不同消息中间件的整合方式。


  • RabbitMQ

RabbitMQ 是 AMQP(Advanced Message Queuing Protocol,高级消息队列协议)协议的典型实现框架。在 RabbitMQ 中,核心概念是交换器(Exchange)。可以通过控制交换器与队列之间的路由规则来实现对消息的存储转发、点对点、发布-订阅等消息传递模型。在一个 RabbitMQ 中可能会存在多个队列,交换器如果想要把消息发送到具体某一个队列,就需要通过两者之间的绑定规则来设置路由信息。路由信息的设置是开发人员操控 RabbitMQ 的主要手段,而路由过程的执行依赖于消息头中的路由键(Routing Key)属性。交换器会检查路由键并结合路由算法来决定将消息路由到哪个队列中去。下图就是交换器与队列之间的路由关系图:

=RabbitMQ 中交换器与队列的路由关系图=

一条来自生产者的消息通过交换器中的路由算法可以发送给一个或多个队列,从而分别实现点对点和发布订阅功能。同时,基于上图也不难得出消费者组的实现方案。因为 RabbitMQ 里每个队列是被消费者竞争消费的,所以指定同一个组的消费者消费同一个队列就可以实现消费者组。


  • Kafka

在 Kafka 中,生产者使用推模式将消息发布到服务器,而消费者使用拉模式从服务器订阅消息。在 Kafka 中还使用到了 Zookeeper,其作用在于实现服务器与消费者之间的负载均衡,所以启动 Kafka 之前必须确保 Zookeeper 正常运行。同时,Kafka 也实现了消费者组机制,如下图所示:

=Kafka 消费者分组=


多个消费者构成了一种组结构,消息只能传输给某个组中的某一个消费者。也就是说,Kafka 中消息的消费具有显式的分布式特性,天生就内置了 Spring Cloud Stream 中的消费组概念。


Spring Cloud Stream 该框架的核心优势在于在内部集成了 RabbitMQ、Kafka 、RocketMQ等主流消息中间件.而对外则提供了统一的 API 接入层。


消费者组: 用于分布式多实例同一条消息只需要一个实例处理消息的场景, 同一消费组像分工合作一起消费消息,避免重复消费。


消费分区: 用于同一分区只能被同一实例处理的场景,一个分区只会被一个消费者消费,

所以分区还可以做分区内消息有序。但同一消费组无法做消息有序。


同时,针对消费组实例数,调整分区数还能提高一定并发量(具体可能结合生产者消费者自己业务瓶颈考虑)。

一个消费者可以消费多个分区,但一个分区只能被一个消费者消费。

————————————————

版权声明:本文为CSDN博主「Ssssngnth 奕飞」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:

https://blog.csdn.net/Rinvay_Cui/article/details/114684962





粉丝福利:Java从入门到入土学习路线图

👇👇👇

👆长按上方微信二维码 2 秒


感谢点赞支持下哈 

浏览 86
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报