Spark/Flink/CarbonData技术实践最佳案例解析

共 8763字,需浏览 18分钟

 ·

2020-10-25 17:43

点击上方蓝色字体,选择“设为星标

回复”资源“获取更多资源

大数据技术与架构
点击右侧关注,大数据开发领域最强公众号!

大数据真好玩
点击右侧关注,大数据真好玩!



当前无论是传统企业还是互联网公司对大数据实时分析和处理的要求越来越高,数据越实时价值越大,面向毫秒~ 秒级的实时大数据计算场景,Spark 和 Flink 各有所长。CarbonData 是一种高性能大数据存储方案,已在 20+ 企业生产环境上部署应用,其中最大的单一集群数据规模达到几万亿。

Spark Structured Streaming 特性介绍

作为 Spark Structured Streaming 最核心的开发人员、Databricks 工程师,Tathagata Das(以下简称“TD”)在开场演讲中介绍了 Structured Streaming 的基本概念,及其在存储、自动流化、容错、性能等方面的特性,在事件时间的处理机制,最后带来了一些实际应用场景。

首先,TD 对流处理所面对的问题和概念做了清晰的讲解。TD 提到,因为流处理具有如下显著的复杂性特征,所以很难建立非常健壮的处理过程:

  • 一是数据有各种不同格式(Jason、Avro、二进制)、脏数据、不及时且无序;

  • 二是复杂的加载过程,基于事件时间的过程需要支持交互查询,和机器学习组合使用;

  • 三是不同的存储系统和格式(SQL、NoSQL、Parquet 等),要考虑如何容错。

因为可以运行在 Spark SQL 引擎上,Spark Structured Streaming 天然拥有较好的性能、良好的扩展性及容错性等 Spark 优势。除此之外,它还具备丰富、统一、高层次的 API,因此便于处理复杂的数据和工作流。再加上,无论是 Spark 自身,还是其集成的多个存储系统,都有丰富的生态圈。这些优势也让 Spark Structured Streaming 得到更多的发展和使用。

流的定义是一种无限表(unbounded table),把数据流中的新数据追加在这张无限表中,而它的查询过程可以拆解为几个步骤,例如可以从 Kafka 读取 JSON 数据,解析 JSON 数据,存入结构化 Parquet 表中,并确保端到端的容错机制。其中的特性包括:

  • 支持多种消息队列,比如 Files/Kafka/Kinesis 等。

  • 可以用 join(), union() 连接多个不同类型的数据源。

  • 返回一个 DataFrame,它具有一个无限表的结构。

  • 你可以按需选择 SQL(BI 分析)、DataFrame(数据科学家分析)、DataSet(数据引擎),它们有几乎一样的语义和性能。

  • 把 Kafka 的 JSON 结构的记录转换成 String,生成嵌套列,利用了很多优化过的处理函数来完成这个动作,例如 from_json(),也允许各种自定义函数协助处理,例如 Lambdas, flatMap。

  • 在 Sink 步骤中可以写入外部存储系统,例如 Parquet。在 Kafka sink 中,支持 foreach 来对输出数据做任何处理,支持事务和 exactly-once 方式。

  • 支持固定时间间隔的微批次处理,具备微批次处理的高性能性,支持低延迟的连续处理(Spark 2.3),支持检查点机制(check point)。

  • 秒级处理来自 Kafka 的结构化源数据,可以充分为查询做好准备。

Spark SQL 把批次查询转化为一系列增量执行计划,从而可以分批次地操作数据。


在容错机制上,Structured Streaming 采取检查点机制,把进度 offset 写入 stable 的存储中,用 JSON 的方式保存支持向下兼容,允许从任何错误点(例如自动增加一个过滤来处理中断的数据)进行恢复。这样确保了端到端数据的 exactly-once。

在性能上,Structured Streaming 重用了 Spark SQL 优化器和 Tungsten 引擎,而且成本降低了 3 倍!

Structured Streaming 隔离处理逻辑采用的是可配置化的方式(比如定制 JSON 的输入数据格式),执行方式是批处理还是流查询很容易识别。同时 TD 还比较了批处理、微批次 - 流处理、持续流处理三种模式的延迟性、吞吐性和资源分配情况。

在时间窗口的支持上,Structured Streaming 支持基于事件时间(event-time)的聚合,这样更容易了解每隔一段时间发生的事情。同时也支持各种用户定义聚合函数(User Defined Aggregate Function,UDAF)。另外,Structured Streaming 可通过不同触发器间分布式存储的状态来进行聚合,状态被存储在内存中,归档采用 HDFS 的 Write Ahead Log (WAL)机制。当然,Structured Streaming 还可自动处理过时的数据,更新旧的保存状态。因为历史状态记录可能无限增长,这会带来一些性能问题,为了限制状态记录的大小,Spark 使用水印(watermarking)来删除不再更新的旧的聚合数据。允许支持自定义状态函数,比如事件或处理时间的超时,同时支持Scala 和Java。

TD 在演讲中也具体举例了流处理的应用情况。在苹果的信息安全平台中,每秒将产生有百万级事件,Structured Streaming 可以用来做缺陷检测,下图是该平台架构:


在该架构中,一是可以把任意原始日志通过 ETL 加载到结构化日志库中,通过批次控制可很快进行灾难恢复;二是可以连接很多其它的数据信息(DHCP session,缓慢变化的数据);三是提供了多种混合工作方式:实时警告、历史报告、ad-hoc 分析、统一的 API 允许支持各种分析(例如实时报警系统)等,支持快速部署。四是达到了百万事件秒级处理性能。

CarbonData 原理、应用和新规划

华为大数据架构师蔡强在以 CarbonData 为主题的演讲中主要介绍了企业对数据应用的挑战、存储产品的选型决策,并深入讲解了 CarbonData 的原理及应用,以及对未来的规划等。

企业中包含多种数据应用,从商业智能、批处理到机器学习,数据增长快速、数据结构复杂的特征越来越明显。在应用集成上,需要也越来越多,包括支持 SQL 的标准语法、JDBC 和 ODBC 接口、灵活的动态查询、OLAP 分析等。

针对当前大数据领域分析场景需求各异而导致的存储冗余问题,CarbonData 提供了一种新的融合数据存储方案,以一份数据同时支持支持快速过滤查找和各种大数据离线分析和实时分析,并通过多级索引、字典编码、预聚合、动态 Partition、实时数据查询等特性提升了 IO 扫描和计算性能,实现万亿数据分析秒级响应。蔡强在演讲中对 CarbonData 的设计思路做了详细讲解。

  • 在数据统一存储上:通过数据共享减少孤岛和冗余,支持多种业务场景以产生更大价值。

  • 大集群:区别于以往的单机系统,用户希望新的大数据存储方案能应对日益增多的数据,随时可以通过增加资源的方式横向扩展,无限扩容。

  • 易集成:提供标准接口,新的大数据方案与企业已采购的工具和 IT 系统要能无缝集成,支撑老业务快速迁移。另外要与大数据生态中的各种软件能无缝集成。

  • 高性能:计算与存储分离,支持从 GB 到 PB 大规模数据,十万亿数据秒级响应

  • 开放生态:与大数据生态无缝集成,充分利用云存储和 Hadoop 集群的优势。

数据布局如下图,CarbonData 用一个 HDFS 文件构成一个 Block,包含若干 Blocklet 作为文件内的列存数据块,File Header/Fille Footer 提供元数据信息,内置 Blocklet 索引以及 Blocklet 级和 Page 级的统计信息,压缩编码采用 RLE、自适应编码、Snappy/Zstd 压缩,数据类型支持所有基础和复杂类型:

Carbon 表支持索引,支持 Segment 级 (注: 一个批次数据导入为一个 segment) 的读写和数据灵活管理,如按 segment 进行数据老化和查询等,文件布局如下:
  • Spark Driver 将集中式的索引存在内存中,根据索引快速过滤数据,Hive metastore 存储表的元数据 (表的信息等)。

  • 一次 Load/Insert 对应生成一个 Segment, 一个 Segment 包含多个 Shard, 一个 Shard 就是一台机器上导入的多个数据文件和一个索引文件组成。每个 Segment 包含数据和元数据(CarbonData File 和 Index 文件),不同的 Segment 可以有不同的文件格式,支持更多其他格式(CSV, Parquet),采用增量的数据管理方式,处理比分区管理的速度快很多。

查询时会将 filter 和 projection 下推到 DataMap(数据地图)。它的执行模型如下:

  • 主要包括 Index DataMap 和 MV DataMap 两种不同 DataMap,三级 Index 索引架构减少了 Spark Task 数和磁盘 IO,MV 可以进行预汇聚和 join 的操作,用数据入库时间换取查询时间。

  • DataMap 根据实际数据量大小选择集中式或者分布式存储,以避免大内存问题。

  • DataMap 支持内存或磁盘的存储方式。

最后,蔡强也分析了 CarbonData 的具体使用和未来计划。

在使用上,CarbonData 提供了非常丰富的功能特性,用户可权衡入库时间、索引粒度和查询性能,增量入库等方面来灵活设置。表操作与 SparkSQL 深度集成,支持高检测功能的可配置 Table Properties。语法和 API 保持 SparkSQL 一致,支持并发导入、更新、合并和查询。DataMap类似一张视图表,可用于加速 Carbon 表查询,通过 datamap_provider 支持 Bloomfilter、Pre-aggregate、MV 三种类型的地图。流式入库与 Structured Streaming集成,实现准实时分析。支持同时查询实时数据和历史数据,支持预聚合并自动刷新,聚合查询会先检查聚合操作,从而取得数据返回客户端。准实时查询,提供了 Stream SQL 标准接口,建立临时的 Source 表和 Sink 表。支持类似 Structured Streaming(结构化流)的逻辑语句和调度作业。

CarbonData 从 2016 年进入孵化器到 2017 年毕业,一共发布了 10 多个稳定的版本,今年 9 月份将会迎来 1.5.0 版的发布。1.5.0 将支持 Spark File Format,增强对 S3 上数据的支持,支持 Spark2.3 和 Hadoop3.1 以及复杂类型的支持。而 1.5.1 主要会对 MV 支持增量的加载,增强对 DataMap 的选择,以及增强了对 Presto 的支持。

Flink 在美团的实践与应用

美团点评数据平台的高级工程师孙梦瑶介绍了美团的实时平台架构及当前痛点,带来了美团如何在 Flink 上的实践以及如何打造实时数据平台,最后介绍了实时指标聚合系统和机器学习平台是如何利用 Flink 进行赋能。

孙梦瑶首先介绍了美团目前实时计算平台的架构:

首先,在数据缓存层,Kafka 作为最大的数据中转层(所有日志类的数据),支撑了美团线上的大量业务,包括离线拉取,以及部分实时处理业务等。其次,引擎层由计算引擎和存储引擎来支撑,计算引擎由 Storm 和 Flink 混合使用,存储引擎则提供实时存储功能。接着,平台层为数据开发提供支持,为美团的日志中心、机器学习中心、实时指标聚合平台提供支撑。架构最顶层的数据应用层 就是由实时计算平台支撑的业务。

目前,美团实时计算平台的作业量已达到近万,集群的节点的规模达到千级别,天级消息量已经达到了万亿级,高峰期的秒级消息量则高达千万条。但是,随着业务的快速扩增,美团点评在实时计算层面仍面临着一系列的痛点及问题:

  • 一是实时计算精确性问题:由于 Storm 的 At-Least-Once 特性导致数据重复,而满足 Exactly-Once 的 Trident 无法保证某些业务的毫秒级延迟要求。

  • 二是流处理中的状态管理问题:基于 Storm 的流处理的状态如果管理不好,会引起故障难以恢复的尴尬状况。

  • 三是实时计算表义能力的局限性:基于对实时计算场景的业务需求,发现之前的系统在表义能力方面有一定的限制。

  • 四是开发调试成本高:不同生态的手工代码开发,导致后续开发、调试、维护成本的增加。

在这样的的背景下,美团点评基础数据团队也开始引入 Flink 并探索相对应的创新实践之路。Flink 在美团点评的实践主要包括三大维度:一是稳定性实践,二是 Flink 的平台化,三是生态建设:

  • 稳定性实践层面,美团点评首先按不同的业务(取决于不同的高峰期、运维时间、可靠性、延迟要求、应用场景等)进行对应的资源隔离,隔离策略是通过 YARN 在物理节点上打标签和隔离离线 DataNode 与实时计算节点。

    其次,再实施基于 CPU、基于内存的智能调度,目前方案是从 CPU 和内存两个方面进行调度优化。还包括对 Flink 的 JobManager 部署 HA(High Availability),保证节点的高可用性。针对网络连接故障,采用自动拉起的方式,通过 checkpoint 恢复失败的作业。

    此外,针对 Flink 对 Kafka 08 的读写超时,美团点评会根据用户的指定次数对异常进行重试,这种方式在解决大规模集群的节点故障问题时可以做更好的平衡。在容灾方面,其采用了多机房和各种热备提升系统的抗故障能力,即使断电断网也能进行保证作业继续进行数据处理。

  • Flink 平台化层面,通过内部的作业管理的实时计算平台,其团队可以看到总览的作业状态,以及资源运行和占用情况。针对实时作业中可能出现的状态,比如延迟、失败,提供监控报警并能便捷地进行消息预订(电话,邮件,短信等方式)。针对显著的性能差别,也提供了调优诊断的手段进行自助查询、对比、诊断。

接下来,孙梦瑶还主要讲解了 Flink 在美团的应用,其中主要包括两点:一是在Petra 实时指标聚合系统的应用,二是用于 MLX 机器学习平台的构建

  • Petra 实时指标聚合系统主要完成对美团业务系统指标的聚合和展示。它对应的场景是整合多个上游系统的业务维度和指标,确保低延迟、同步时效性及可配置。因此美团点评团队充分利用了 Flink 基于事件时间和聚合的良好支持、Flink 在精确率(checkpoint 机制)和低延迟上的特性,以及热点 key 散列解决了维度计算中的数据倾斜问题。


MLX 机器学习平台

MLX 机器学习平台主要通过特征数据的提取和模型的训练,支持美团点评的搜索和推荐以及其他业务的应用。它需要满足提供离线模式——通过批处理抽取离线特征数据,同时也提供近线模式——通过 Flink 抽取实时日志系统中的特征数据。接着训练综合了离线和近线数据的特征数据集群,提取特征并进行模型训练,最终产生有意义的特征。目前,它能支持现有离线场景下的特征提取体系,通过 Flink 支持增量在线日志交易类数据,有了离线和在线数据就能较好的支持模型训练、特征提取、在线预估、实时预测等。

未来,美团点评还将从三方面优化 Flink 相关实践:

  • 状态的统一方面:对状态进行统一的管理以及大状态性能优化。

  • SQL 开发效率的提升:基于 Flink 在语义上的优势解决配置、查询方面的问题,在性能、开发、维护方面做进一步优化。

  • 新应用场景的探索:除流处理外,进一步整合业务场景下离线和在线数据,通过统一的 API 为业务提供更多的服务。

Flink 和 Spark 流框架对比 + 华为流计算技术演进

华为云技术专家时金魁作为最后一位演讲嘉宾,系统性地梳理、比较了 Flink/Spark 的流框架,同时介绍了华为流计算技术演进过程,并详解了华为 CloudStream 的服务能力及应用。

时金魁一开始即列举了最常用的流计算框架 Storm、Nifi、Spark 和 Flink 等。提供了下面常见开源流计算框架以便大家了解这个生态圈的最新情况。

其中,华为云 CloudStream 同时支持 Flink 和 Spark(Streaming 和 Structured Streaming)。时金魁提到,华为流计算团队在研发过程中发现,Spark Streaming 能力有限,无法完全满足实时流计算场景,而华为自研多年的流框架生态不足,Storm 日薄西山,所以华为在 2016 年转向 Flink 为主 Spark 为辅的组合。今年 Spark Structured 能力越来越丰富,与 Flink 之间的 gap 正快速缩小,也是幸事。

时金魁认为,流计算就是实时处理当下正在发生的流数据,逐条进行大数据分析或算法运算。它具备以下几个特征:

  • 数据先后顺序不确定导致的乱序问题。

  • 内存计算。

  • 流速不定(数据大小不能预测),数据倾斜(分布不均匀),导致计算资源分配不均,能力受限。

  • Long running 永远不结束。

  • 基于消息事件的逐条处理。

  • 提供可靠的快照。

从新技术、用户耐心、大数据增长几个方面,时金魁介绍了实时流计算最大限度挖掘数据的价值,是商业驱动和市场价值的一种体现。实时流计算具有丰富的使用场景,如实时商品的广告推荐、金融风控、交通物流、车联网、智慧城市等等。只要需要对实时的大数据推荐或者实时大数据分析,都能找到流计算的应用价值。

时金魁在演讲中重点讲解了数据流模型,即它是一个实时往下流的过程。在 Flink 中,客观的理解就是一个无限的数据流,提供分配和合并,并提供触发器和增量处理机制。如下图所示:

时金魁介绍说,对华为而言,Spark,Flink 以及 CloudStream,这三部分构成了 LOGO 中的“三条杠”,华为实时流计算服务俗称“华为云三道杠”,为客户主要提供云计算的服务。

通过对 Flink 的内核分析以及运行分析,他解释了如何实现一个完整的数据流处理过程:

  • 解析:逻辑关系解析,生成 StreamTransformation

  • 分析:构建 StreamGraph,DAG,为生成执行计划准备

  • 生成:构建 ExecutionGraph,为运行做准备

  • 执行:申请资源,执行计划(算子)

  • 最后生成数据流(DataStream)

下图是 Flink 的技术栈图,包括了一个完整的数据流框架:

此外,时金魁还对 Flink 和 Spark 做了详细的对比。Flink的优势包括具备成熟的数据流模型,能提供大量易用的 API 供使用,在 SQL、Table、CEP、ML、Graph 方面都提供完善的功能。对比之下,Spark拥有活跃的社区和完善的生态,Structured Streaming 能提供统一标准,保证低延迟。

而华为根据 Flink 与 Spark 框架各自的特点,摒弃其劣势,设计开发出一款全新的实时流计算服务 Cloud Stream Service(简称 CS)。CS 采用 Apache Flink 的 Dataflow 模型,实现完全的实时计算,同时采用在线 SQL 编辑平台编写的 Stream SQL,自定义数据流入、数据处理、数据流出,并完全兼容 Spark 和 Flink 的 API。

总结来说,Cloud Stream 具有易用、按需计费、开箱即用、低延时(毫秒)高吞吐(百万消息每秒)、完整生态、完全可靠等几大优势。

例如,在易用性维度,Cloud Stream 利用可视化的 StreamSQL 编辑器,因此可以方便地定义 SQL,可在线调试和监控作业。

在安全性维度,华为实时流计算团队在行业首创了全托管的 serverless 独享集群模式。第一,它采用物理隔离,使得用户在作业运行时和资源上无共享,多用户之间无交叉;二是在业务上实现隔离,使得连接、数据和计算相互独立无干扰;三是沙箱在共享资源池中很难完全防语言、应用、OS 等方面的共计,而且对 Spark 和 Flink 有一定的侵入性。

在线机器学习方面,CloudStream 通过了流式随机森林算法应用于实时故障检测;通过特征工程应用于实时推荐;通过在线机器学习应用于智慧城市;通过地理分析函数应用于卡车运输位置检测。

最后,时金魁也分享了 CloudStream 支持对接用户自己搭建的 Kafka、Hadoop、Elastic Search、RabbitMQ 等开源产品集群;同时已支持连通华为云上的其他服务,如消息通知服务、云搜索服务、智能边缘平台等十几个服务,从而为用户提供一站式、生态丰富、功能强大的实时流计算平台。

版权声明:

本文为大数据技术与架构整理,原作者独家授权。未经原作者允许转载追究侵权责任。
编辑|冷眼丶
微信公众号|import_bigdata


欢迎点赞+收藏+转发朋友圈素质三连



文章不错?点个【在看】吧! ?

浏览 23
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报