zuihou-admin-cloud微服务脚手架

联合创作 · 2023-09-20 03:06

本项目是基于SpringCloud + SpringBoot 的 SaaS型微服务脚手架,具备用户管理、资源权限管理、网关统一鉴权、XSS防跨站攻击、自动代码生成、多存储系统、分布式事务、分布式定时任务等多个模块,支持多业务系统并行开发,支持多服务并行开发,可以作为后端服务的开发脚手架。代码简洁,架构清晰,非常适合学习和实际项目中使用。核心技术采用Nacos、Fegin、Ribbon、Zuul、Hystrix、JWT Token、Mybatis、SpringBoot、Seata、Sentinel、RabbitMQ、FastDFS等主要框架和中间件。

希望能努力打造一套 基础开发框架 - 分布式微服务架构 - 持续集成 - 自动化部署 - 系统监测 的解决方案。

另本项目旨在实现基础能力,不涉及具体业务,项目中很多配置都严格按照开发+生产级动态切换的设计思路,所以很多配置比较绕,需要对框架有一定的了解才能理解,努力达到:开发环境效率第一、生产环境的安全&性能第一!。

 

租户模式: 

她既是一套SaaS基础开发平台,也是一套非SaaS基础开发平台,一套代码,实现4种租户模式,只需要对配置文件做一个改动,既能实现4中模式的

租户模式 描述 优点 缺点 分布式事务
NONE(非租户模式)  没有租户 简单、适合独立系统 缺少租户系统的便利性 支持
COLUMN(字段模式) 租户共用一个数据库,在业务表中增加字段来区分   简单、不复杂、开发无感知  数据隔离性差、安全性差、数据备份和恢复困难 支持
SCHEMA(独立schema)  每个租户独立一个 数据库(schema),执行sql时,动态在表名前增加schema 简单、开发无感知、数据隔离性好 配置文件中必须配置数据库的root账号、不支持复杂sql和 sql嵌套自定义函数 支持
DATASOURCE(独立数据源)  每个租户独立一个 数据库(数据源),执行代码时,动态切换数据源 可独立部署数据库,数据隔离性好、扩展性高、故障影响小 相对复杂、开发需要注意切换数据源时的事务问题、需要较多的数据库 支持

功能点介绍:

 服务鉴权:

通过JWT的方式来加强服务之间调度的权限验证,保证内部服务的安全性。

监控:

利用Spring Boot Admin 来监控各个独立Service的运行状态;利用turbine来实时查看接口的运行状态和调用频率;通过Zipkin来查看各个服务之间的调用链等。

数据权限:

利用基于Mybatis的DataScopeInterceptor拦截器实现了简单的数据权限

SaaS的无感解决方案:

使用Mybatis拦截器实现对所有SQL的拦截,COLUMN模式动态拼接租户编码,SCHEMA模式修改默认的Schema,DATASOURCE模式动态切换数据源,从而实现多租户数据隔离的目的。并且支持禁用租户模式。

二级缓存:

采用J2Cache操作缓存,第一级缓存使用内存(Caffeine),第二级缓存使用 Redis。 由于大量的缓存读取会导致 L2 的网络成为整个系统的瓶颈,因此 L1 的目标是降低对 L2 的读取次数。 该缓存框架主要用于集群环境中。单机也可使用,用于避免应用重启导致的缓存冷启动后对后端业务的冲击。

优雅的Bean转换:

采用Dozer组件来对 DTO、DO、PO等对象的优化转换

前后端统一表单验证:

严谨的表单验证通常需要 前端+后端同时验证, 但传统的项目,均只能前后端各做一次检验, 后期规则变更,又得前后端同时修改。 故在hibernate-validator的基础上封装了zuihou-validator-starter起步依赖,提供一个通用接口,可以获取需要校验表单的规则,然后前端使用后端返回的规则, 以后若规则改变,只需要后端修改即可。

防跨站脚本攻击(XSS):

  •      通过过滤器对所有请求中的 表单参数 进行过滤
  •      通过Json反序列化器实现对所有 application/json 类型的参数 进行过滤

当前用户信息注入器:

 通过注解实现用户身份注入

在线API:

由于原生swagger-ui某些功能支持不够友好,故采用了国内开源的 knife4j ,并制作了stater,方便springboot用户使用。

代码生成器:

基于Mybatis-plus-generator自定义了一套代码生成器, 通过配置数据库字段的注释,自动生成枚举类、数据字典注解、SaveDTO、UpdateDTO、表单验证规则注解、Swagger注解等。

定时任务调度器:

基于xxl-jobs进行了功能增强。(如:指定时间发送任务、执行器和调度器合并项目、多数据源)

大文件/断点/分片续传:

前端采用webupload.js、后端采用NIO实现了大文件断点分片续传,启动Eureka、Zuul、File服务后,直接打开docs/chunkUploadDemo/demo.html即可进行测试。 经测试,本地限制堆栈最大内存128M启动File服务,5分钟内能成功上传4.6G+的大文件,正式服耗时则会受到用户带宽和服务器带宽的影响,时间比较长。

分布式事务:

集成了阿里的分布式事务中间件:seata,以 高效 并且对业务 0侵入 的方式,解决 微服务 场景下面临的分布式事务问题。

灰度发布:
    
为了解决频繁的服务更新上线,版本回退,快速迭代,公司内部协同开发,本项目采用修改ribbon的负载均衡策略来实现来灰度发布。     

关联数据自动注入:

用于解决跨表、跨库、跨服务分页数据的属性或单个对象的属性 回显关联数据之痛, 支持对静态数据属性(数据字典)、动态主键数据进行自动注入。

 

架构图

 

系统一览

 

 

浏览 5
点赞
评论
收藏
分享

手机扫一扫分享

编辑 分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

编辑 分享
举报