Kettle构建Hadoop ETL实践(一):ETL与Kettle
共 26421字,需浏览 53分钟
·
2020-11-29 03:13
点击上方蓝色字体,选择“设为星标”
回复”资源“获取更多资源大数据技术与架构点击右侧关注,大数据开发领域最强公众号!大数据真好玩点击右侧关注,大数据真好玩!
(一)ETL与Kettle的基本概念
(二)Kettle及其使用环境的安装与配置
(三)Kettle对Hadoop的支持
(四)建立ETL示例模型
(五)数据抽取
(六)数据转换与装载
(七)定期自动执行ETL作业
(八)维度表技术(增加列、维度子集、角色扮演维度、层次维度、退化维度、杂项维度、维度合并、分段维度)
(九)事实表技术(周期快照、累计维度、无事实的事实表、迟到的事实、累积度量)
(十)Kettle数据分发与多线程
(十一)Kettle集群与数据分片
(十二)Kettle元数据管理对于每一种技术,先要理解相关的概念和它之所以出现的原因,这对于我们继续深入学习其技术细节大有裨益。源于一贯的学习方法和习惯,让我们还是先从基本概念开始吧。一、ETL基础ETL一词是Extract、Transform、Load三个英文单词的首字母缩写,中文意为抽取、转换、装载。
抽取——从操作型数据源获取数据。
转换——转换数据,使之转变为适用于查询和分析的形式和结构。
装载——将转换后的数据导入到最终的目标数据仓库。
1. 数据仓库架构中的ETL
可以把数据仓库架构理解成构成数据仓库的组件及其之间的关系,那么就有了下面的数据仓库架构图。图1-1 数据仓库架构
图1-1中显示的整个数据仓库环境包括操作型系统和数据仓库系统两大部分。操作型系统的数据由各种形式的业务数据组成,这其中可能包含关系数据库、TXT或CSV文件、HTML或XML文档,还可能存在外部系统的数据,比如网络爬虫抓取来的互联网数据等。数据可能是结构化、半结构化或非结构化的。这些数据经过ETL过程进入数据仓库系统。这里把ETL分成了抽取和转换装载两个部分。抽取过程负责从操作型系统获取数据,该过程一般不做数据聚合和汇总,但是会按照主题进行集成,物理上是将操作型系统的数据全量或增量复制到数据仓库系统的RDS中。Hadoop生态圈中的主要数据抽取工具是Sqoop。Sqoop被设计成支持在关系数据库和Hadoop之间传输数据。转换装载过程将数据进行清洗、过滤、汇总、统一格式化等一系列转换操作,使数据转为适合查询的格式,然后装载进数据仓库系统的TDS中。传统数据仓库的基本模式是用一些过程将操作型系统的数据抽取到文件,然后另一些过程将这些文件转化成MySQL或Oracle这样的关系数据库的记录。最后,第三部分过程负责把数据导入进数据仓库。RDS(Raw Data Stores)是原始数据存储的意思。将原始数据保存到数据仓库里是个不错的想法。ETL过程的bug或系统中的其它错误是不可避免的,保留原始数据使得追踪并修改这些错误成为可能。有时数据仓库的用户会有查询细节数据的需求,这些细节数据的粒度与操作型系统的相同。有了RDS,这种需求就很容易实现,用户可以查询RDS里的数据而不必影响业务系统的正常运行。这里的RDS实际上是起到了操作型数据存储(Operational Data Store,ODS)的作用。TDS(Transformed Data Stores)意为转换后的数据存储,是真正的数据仓库中的数据。大量用户会在经过转换的数据集上处理他们的日常查询。如果前面的工作做得好,这些数据的构建方式将保证最重要的和最频繁的查询能够快速执行。这里的原始数据存储和转换后的数据存储是逻辑概念,它们可能物理存储在一起,也可能分开。当原始数据存储和转换后的数据存储物理上分开时,它们不必使用同样的软硬件。传统数据仓库中,原始数据存储通常是本地文件系统,数据被组织进相应的目录中,这些目录是基于数据从哪里抽取或何时抽取建立(例如以日期作为文件或目录名称的一部分)。转换后的数据存储一般使用某种关系数据库。在Hadoop生中,可以这两类数据逻辑上分开,物理上通过在Hive中建立两个不同的数据库来实现,最终所有数据都被分布存储到HDFS上。自动化调度组件的作用是自动定期重复执行ETL过程。不同角色的数据仓库用户对数据的更新频率要求也会有所不同,例如财务主管需要每月的营收汇总报告,而销售人员想看到每天的产品销售数据。作为通用需求,所有数据仓库系统都应该能够建立周期性自动执行的工作流作业。ETL过程自动化是数据仓库成功的重要衡量标准。传统数据仓库一般利用操作系统自带的调度功能(如Linux的cron或Windows的计划任务)实现作业自动执行。Hadoop生态圈中有一个叫做Oozie的工具,它是一个Hadoop的工作流调度系统,可以使用它将ETL过程封装进工作流自动执行。数据目录有时也被称为元数据存储,它可以提供一份数据仓库中数据的清单。用户通过它应该可以快速解决这些问题:什么类型的数据被存储在哪里,数据集的构建有何区别,数据最后的访问或更新时间等。此外还可以通过数据目录感知数据是如何被操作和转换的。一个好的数据目录是让用户体验到系统易用性的关键。Hadoop生态圈中主要的数据目录工具是HCatalog,它是Hadoop上的一个表和存储管理层。查询引擎组件负责实际执行用户查询。传统数据仓库中,它可能是存储转换后数据的Oracle、MySQL等关系数据库系统内置的查询引擎,还可能是以固定时间间隔向其导入数据的OLAP立方体,如Essbase cube。Hadoop生态圈中的主要SQL查询引擎有基于MapReduce的Hive、基于RDD的SparkSQL和基于MPP的Impala等。用户界面指的是最终用户所使用的接口程序。可能是一个GUI软件,如BI套件的中的客户端软件,也可能就只是一个浏览器。Hadoop生态圈中比较知名的数据可视化工具是Hue和Zeppelin。本专题的(三)Kettle对Hadoop的支持 将详细介绍如何在Kettle中使用Hadoop相关组件。
2. 数据抽取
抽取操作从源系统获取数据给后续的数据仓库环境使用。这是ETL处理的第一步,也是最重要的一步。数据被成功抽取后,才可以进行转换并装载到数据仓库中。能否正确地获取数据直接关系到后面步骤的成败。数据仓库典型的源系统是事务处理应用,例如,一个销售分析数据仓库的源系统之一,可能是一个订单录入系统,其中包含当前销售订单相关操作的全部记录。设计和建立数据抽取过程,在ETL处理乃至整个数据仓库处理过程中,一般是较为耗时的任务。源系统很可能非常复杂并且缺少相应的文档,因此只是决定需要抽取哪些数据可能就已经非常困难了。通常数据都不是只抽取一次,而是需要以一定的时间间隔反复抽取,通过这样的方式把数据的所有变化提供给数据仓库,并保持数据的及时性。除此之外,源系统一般不允许外部系统对它进行修改,也不允许外部系统对它的性能和可用性产生影响,数据仓库的抽取过程要能适应这样的需求。如果已经明确了需要抽取的数据,下一步就该考虑从源系统抽取数据的方法了。对抽取方法的选择高度依赖于源系统和目标数据仓库环境的业务需要。一般情况下,不可能因为需要提升数据抽取的性能,而在源系统中添加额外的逻辑,也不能增加这些源系统的工作负载。有时,用户甚至都不允许增加任何“开箱即用”的外部应用系统,这被认为是对源系统具有侵入性。下面分别从逻辑和物理两方面介绍数据抽取方法。(1)逻辑抽取
有两种逻辑抽取类型:全量抽取和增量抽取。全量抽取源系统的数据全部被抽取。因为这种抽取类型影响源系统上当前所有有效的数据,所以不需要跟踪自上次成功抽取以来的数据变化。源系统只需要原样提供现有的数据而不需要附加的逻辑信息(比如时间戳等)。一个全表导出的数据文件或者一个查询源表所有数据的SQL语句,都是全量抽取的例子。增量抽取
只抽取某个事件发生的特定时间点之后的数据。通过该事件发生的时间顺序能够反映数据的历史变化,它可能是最后一次成功抽取,也可能是一个复杂的业务事件,如最后一次财务结算等。必须能够标识出特定时间点之后所有的数据变化。这些发生变化的数据可以由源系统自身来提供,例如能够反映数据最后发生变化的时间戳列,或者是一个原始事务处理之外的,只用于跟踪数据变化的变更日志表。大多数情况下,使用后者意味着需要在源系统上增加数据抽取逻辑。在许多数据仓库中,抽取过程不含任何变化数据捕获技术。取而代之的是,把源系统中的整个表抽取到数据仓库过渡区(Staging Area),然后用这个表的数据和上次从源系统抽取得到的表数据作比对,从而找出发生变化的数据。虽然这种方法不会对源系统造成很大的影响,但显然需要考虑给数据仓库处理增加的负担,尤其是当数据量很大的时候。
(2)物理抽取
依赖于选择的逻辑抽取方法,还有能够对源系统所做的操作和所受的限制,存在两种物理数据抽取机制:直接从源系统联机抽取或者间接从一个脱机结构抽取数据。这个脱机结构有可能已经存在,也可能得需要由抽取程序生成。联机抽取数据直接从源系统抽取。抽取进程或者直连源系统数据库访问它们的数据表,或者连接到一个存储快照日志或变更记录的中间层系统(如MySQL数据库的binlog)。注意这个中间层系统并不需要必须和源系统物理分离。脱机抽取
数据不从源系统直接抽取,而是从一个源系统以外的过渡区抽取。过渡区可能已经存在(例如数据库备份文件、关系数据库系统的重做日志、归档日志等),或者抽取程序自己建立。应该考虑以下的存储结构:
数据库备份文件。一般需要数据还原操作才能使用。
备用数据库。如Oracle的DataGuard和MySQL的数据复制等技术。
平面文件。数据定义成普通格式,关于源对象的附加信息(列名、数据类型等等)需要另外处理。
导出文件。关系数据库大都自带数据导出功能,如Oracle的exp/expdp程序和MySQL的mysqldump程序,都可以用于生成数据文件。
重做日志和归档日志。每种数据库系统都有自己的日志格式和解析工具。
(3)变化数据捕获
抽取处理需要重点考虑增量抽取,也被称为变化数据捕获(Change Data Capture,CDC)。假设一个数据仓库系统,在每天夜里的业务低峰时间从操作型源系统抽取数据,那么增量抽取只需要过去24小时内发生变化的数据。变化数据捕获也是建立准实时数据仓库的关键技术。当能够识别并获得最近发生变化的数据时,抽取及其后面的转换、装载操作显然都会变得更高效,因为要处理的数据量会小很多。遗憾的是,很多源系统很难识别出最近变化的数据,或者必须侵入源系统才能做到。变化数据捕获是数据抽取中典型的技术挑战。常用的变化数据捕获方法有时间戳、快照、触发器和日志四种。相信熟悉数据库的用户对这些方法都不会陌生。时间戳方法需要源系统有相应的数据列表示最后的数据变化。快照方法可以使用数据库系统自带的机制实现,如Oracle的物化视图技术,也可以自己实现相关逻辑,但会比较复杂。触发器是关系数据库系统具有的特性,源表上建立的触发器会在对该表执行insert、update、delete等语句时被触发,触发器中的逻辑用于捕获数据的变化。日志可以使用应用日志或系统日志,这种方式对源系统不具有侵入性,但需要额外的日志解析工作。关于这四种方案的特点,将会在本专题(五)数据抽取 中具体说明。3. 数据转换
数据从操作型源系统获取后,需要进行多种转换操作。如统一数据类型、处理拼写错误、消除数据歧义、解析为标准格式等等。数据转换通常是最复杂的部分,也是ETL开发中用时最长的一步。数据转换的范围极广,从单纯的数据类型转化到极为复杂的数据清洗技术。在数据转换阶段,为了能够最终将数据装载到数据仓库中,需要在已经抽取来的数据上应用一系列的规则和函数。有些数据可能不需要转换就能直接导入到数据仓库。数据转换一个最重要的功能是清洗数据,目的是只有“合规”的数据才能进入目标数据仓库。这步操作在不同系统间交互和通信时尤其必要,例如,一个系统的字符集在另一个系统中可能是无效的。另一方面,由于某些业务和技术的需要,也需要进行多种数据转换,例如下面的情况:只装载特定的数据列。例如,某列为空的数据不装载。
统一数据编码。例如,性别字段,有些系统使用的是1和0,有些是‘M’和‘F’,有些是‘男’和‘女’,统一成‘M’和‘F’。
自由值编码。例如,将‘Male’改成‘M’。
预计算。例如,产品单价 * 购买数量 = 金额。
基于某些规则重新排序以提高查询性能。
合并多个数据源的数据并去重。
预聚合。例如,汇总销售数据。
行列转置。
将一列转为多列。例如,某列存储的数据是以逗号作为分隔符的字符串,将其分割成多列的单个值。
合并重复列。
预连接。例如,查询多个关联表的数据。
数据验证。针对验证的结果采取不同的处理,通过验证的数据交给装载步骤,验证失败的数据或直接丢弃,或记录下来做进一步检查。
4. 数据装载
ETL的最后步骤是把转换后的数据装载进目标数据仓库。这步操作需要重点考虑两个问题,一是数据装载的效率,二是一旦装载过程中途失败了,如何再次重复执行装载过程。即使经过了转换、过滤和清洗,去掉了部分噪声数据,但需要装载的数据量还是很大的。执行一次数据装载可能需要几个小时甚至更长时间,同时需要占用大量的系统资源。要提高装载的效率,加快装载速度,可以从以下几方面入手。首先保证足够的系统资源。数据仓库存储的都是海量数据,所以要配置高性能的服务器,并且要独占资源,不要与别的系统共用。在进行数据装载时,可以禁用数据库约束(唯一性、非空性,检查约束等)和索引,当装载过程完全结束后,再启用这些约束,重建索引。这种方法会大幅提高装载速度。在数据仓库环境中,一般不使用数据库来保证数据的参考完整性,即不使用数据库的外键约束,它应该由ETL工具或程序来维护。数据装载过程可能由于多种原因而失败,比如装载过程中某些源表和目标表的结构不一致而导致失败,而这时已经有部分表装载成功了。在数据量很大的情况下,如何能在重新执行装载过程时只装载失败的部分是一个不小的挑战。对于这种情况,实现可重复装载的关键是要记录下失败点,并在装载程序中处理相关的逻辑。还有一种情况,就是装载成功后,数据又发生了改变(比如有些滞后的数据在ETL执行完才进入系统,就会带来数据的更新或新增),这时需要重新再执行一遍装载过程,已经正确装载的数据可以被覆盖,但相同数据不能重复新增。简单的实现方式是先删除在插入,或者用replace into、merge into等类似功能的操作。装载到数据仓库里的数据,经过汇总、聚合等处理后交付给多维立方体或数据可视化、仪表盘等报表工具、BI工具做进一步的数据分析。5. 开发ETL系统的方法
ETL系统一般都会从多个应用系统整合数据,典型的情况是这些应用系统运行在不同的软硬件平台上,由不同的厂商所支持,各个系统的开发团队也是彼此独立的,随之而来的数据多样性增加了ETL系统的复杂性。开发一个ETL系统,常用的方式是使用数据库标准的SQL及其程序化语言,如Oracle的PL/SQL和MySQL的存储过程、用户自定义函数(UDF)等。还可以使用Kettle这样的ETL工具,这些工具都提供多种数据库连接器和多种文件格式的处理能力,并且对ETL处理进行了优化。使用工具的最大好处是减少编程工作量,提高工作效率。如果遇到特殊需求或特别复杂的情况,可能还是需要使用Shell、Java、Python等编程语言开发自己的应用程序。ETL过程要面对大量的数据,因此需要较长的处理时间。为提高ETL效率,通常这三步操作会并行执行。当数据被抽取时,转换进程同时处理已经收到的数据。一旦某些数据被转换过程处理完,装载进程就会将这些数据导入目标数据仓库,而不会等到前一步工作执行完才开始。二、ETL工具
1. ETL工具的产生
ETL工具出现之前,人们使用手工编写程序的方式来完成不同数据源的数据整合工作,常见的程序语言如COBOL、Perl或PL/SQL等。尽管这种数据整合方案由来已久,但直至今天仍有ETL工作使用这种手工编程/脚本的方式来完成。在还没有太多开源ETL工具的年代,相对价格昂贵的ETL工具而言,手工编程还有一定意义。手工编程的主要缺点在于:容易出错
开发周期长
不易于维护
缺少元数据
缺乏一致性的日志和错误处理
2. ETL工具的功能
下面描述一般ETL工具必备的通用功能,以及Kettle如何提供这些功能。(1)连接
任何ETL工具都应该有能力连接到类型广泛的数据源和数据格式。对于最常用的关系型数据库系统,还要提供本地的连接方式(如Oracle的OCI),ETL应该能够提供下面最基本的功能:连接到普通关系型数据库并获取数据,如常见的Oracle、MS SQL Server、IBM DB/2、Ingres、MySQL和PostgreSQL等。
从有分隔符或固定格式的ASCII文件中获取数据。
从XML文件中获取数据。
从流行的办公软件中获取数据,如Access数据库和Excel电子表格。
使用FTP、SFTP、SSH方式获取数据(最好不用脚本)。
(2)平台独立
一个ETL工具应该能在任何平台上甚至是不同平台的组合上运行。例如,一个32位的操作系统可能在开发的初始阶段运行很好,但是当数据量越来越大时,就需要一个更强大的64位操作系统。再比如,开发一般是在Windows或Mac机上进行的,而生产环境一般是Linux系统或集群,ETL解决方案应该可以无缝地在这些系统间切换。Kettle是用Java开发的,可以运行在任何安装了Java虚拟机的计算机上。(3)数据规模
ETL解决方案应该能处理逐年增长的数据。一般ETL能通过下面三种方式处理大数据。并发:ETL过程能够同时处理多个数据流,以便利用现代多核的硬件架构。
分区:ETL能够使用特定的分区模式,将数据分发到并发的数据流中。
集群:ETL过程能够分配在多台机器上联合完成。
(4)设计灵活性
一个ETL工具应该留给开发人员足够的自由度来使用,而不能通过一种固定的方式限制用户的创造力和设计的需求。ETL工具可以分为基于过程的和基于映射的。基于映射的工具只在源和目的数据之间提供一组固定的步骤,严重限制了设计工作的自由度。基于映射的工具一般易于使用,可快速上手,但是对于更复杂的任务,基于过程的工具才是最好的选择。使用像Kettle这样基于过程的工具,根据实际的数据和业务需求,可以创建自定义的步骤和转换。(5)复用性
设计完的ETL转换应该可以被复用,这也是ETL工具的一个不可或缺的特征。复制和粘贴已存在的转换步骤是最常见的一种复用,但这还不是真正意义上的复用。复用一词是指定义了一个转换或步骤,从其它地方可以调用这些转换或步骤。Kettle里有一个“映射(子转换)”步骤,可以完成转换的复用,该步骤可以将一个转换作为其它转换的子转换。另外转换还可以在多个作业里多次使用,同样作业也可以作为其它作业的子作业。(6)扩展性
ETL工具必须要有扩展功能的方法。几乎所有的ETL工具都提供了脚本,以编程的方式来解决工具本身不能解决的问题。另外有些ETL工具可以通过API或其它方式来为工具增加组件。第三种方法是使用脚本语言写函数,函数可以被其它转换或脚本调用。Kettle提供了上述所有功能。“JavaScript代码”步骤可以用来开发Java脚本,把这个脚本保存为一个转换,再通过映射(子转换)步骤,又可以变为一个标准的可以复用的函数。实际上并不限于脚本,每个转换都可以通过这种映射(子转换)方式来复用,如同创建了一个组件。Kettle在设计上就是可扩展的,它提供了一个插件平台。这种插件架构允许第三方为Kettle平台开发插件。Kettle里的所有组件都是插件,即使是默认提供的组件。(7)数据转换
ETL项目很大一部分工作都是在做数据转换。在输入和输出之间,数据要经过检验、连接、分割、合并、转置、排序、归并、克隆、排重、删除、替换或者其它操作。常用的ETL工具(包括Kettle)都提供了下面一些最基本的转换功能:缓慢变更维度(Slowly Changing Dimension,SCD)
查询值
行列转置
条件分割
排序、合并、连接
聚集
(8)测试和调试
测试和调试的重要性不言而喻。ETL的设计过程和直接用开发语言写程序很相似,也就是说在写程序时用到的一些步骤或过程同样也适用于ETL设计。测试也是ETL设计的一部分。为了完成测试工作,我们通常需要假设下面几种失败场景,并要给出相应的处理方法:如果ETL过程没有按时完成数据转换的任务怎么办?
如果转换过程异常终止怎么办?
目标是非空列的数据抽取到的数据为空怎么办?
转换后的行数和抽取到的数据行数不一致怎么办(数据丢失)?
转换后计算的数值和另一个系统的数值不一致怎么办(逻辑错误)?
(9)血统和影响分析
任何ETL工具都应该有一个重要的功能:读取转换的元数据,抽取由不同转换构成的数据流的信息。血统分析和影响分析是基于元数据的两个相关的特性。血统是一种回溯性的机制,它可以查看到数据的来源。例如,“价格”和“数量”字段作为输入字段,在转换中根据这两个字段计算出“收入”字段。即使在后面的处理流程里过滤了“价格”个“数量”字段,血统分析也能分析出“收入”字段是基于“价格”和“数量”字段的。影响分析是基于元数据的另种分析方法,该方法可以分析源数据字段对随后的转换以及目标表的影响。在本专题的(十二)Kettle元数据管理 中将详细讲述这一主题。(10)日志和审计
数据仓库的目的就是要提供一个准确的信息源,因此数据仓库里的数据应该是可靠和可信的。为了保证这种可靠性,同时保证可以记录下所有的数据转换操作,ETL工具应该提供日志和审计功能。日志可以记录下在转换过程中执行了哪些步骤,包括每个步骤开始和结束时间时间戳。审计可以追踪到对数据做的所有操作,包括读行数、转换行数、写行数。在这方面Kettle在ETL工具市场处于领先地位。传统大的软件厂商一般都提供ETL工具软件,如Oracle的OWB和ODI、微软的SQL Server Integration Services、SAP的Data Integrator、IBM的InfoSphere DataStage、Informatica等。下面介绍本专题的主角,开源的ETL工具中的佼佼者——Kettle。三、Kettle简介Kettle是Pentaho公司的数据整合产品,它可能是现在世界上最流行的开源ETL工具,经常被用于数据仓库环境,并可用来操作Hadoop上的数据。Kettle的使用场景包括:不同数据源之间迁移数据、把数据库中的数据导出成平面文件、向数据库大批量导入数据、数据转换和清洗、应用整合等。Kettle是使用Java语言开发的。它最初的作者Matt Casters原是一名C语言程序员,在着手开发Kettle时还是一名Java小白,但是他仅用了一年时间就开发出了Kettle的第一个版本。虽然有很多不足,但这版毕竟是可用的。使用自己并不熟悉的语言,仅凭一己之力在很短的时间里就开发出了复杂的ETL系统工具,作者的开发能力和实践精神令人十分佩服。后来Pentaho公司获得了Kettle源代码的版权,Kettle也随之更名为Pentaho Data Integration,简称PDI。1. Kettle设计原则
Kettle工具在设计之初就考虑到了一些设计原则,这些原则也借鉴了以前使用过的其它一些ETL工具积累下的经验和教训。易于开发
避免自定义开发
所有功能都通过用户界面完成
没有命名限制
透明
灵活的数据通道
只映射需要的字段
可视化编程
2. 转换
转换(transformation)是Kettle ETL解决方案中最主要的部分,它处理抽取、转换、装载各阶段各种对数据行的操作。转换包括一个或多个步骤(step),如读取文件、过滤输出行、数据清洗或将数据装载到数据库等等。转换里的步骤通过跳(hop)来连接,跳定义了一个单向通道,允许数据从一个步骤向另一个步骤步骤流动。在Kettle里,数据的单位是行,数据流就是数据行从一个步骤到另一个步骤的移动。图1-2所示的转换从数据库读取数据并写入文本文件。除了步骤和跳,转换还包括了注释(note)。注释是一个文本框,可以放在转换流程图的任何位置。注释的主要目的是使转换文档化。
(1)步骤
步骤是转换的基本组成部分,它以图标的方式图形化地展现,图1-2中显示了两个步骤,“表输入”和“文本文件输出”。一个步骤有几个关键特性:步骤需要有一个名字,这个名字在转换范围内唯一。
每个步骤都会读写数据行。唯一例外是“生成记录”步骤,该步骤只写数据。在本专题的(四)建立ETL示例模型 中将看到如何使用“生成记录”步骤生成日期维度数据。
步骤将数据写到与之相连的一个或多个输出跳(outgoing hops),再传送到跳的另一端的步骤。对另一端的步骤来说,这个跳就是一个输入跳(incoming hops),步骤通过输入跳接收数据。
大多数步骤可以有多个输出跳。一个步骤的数据发送可以被设置为轮流发送或复制发送。轮流发送是将数据行依次发给每个输出跳,复制发送是将全部数据行发送给所有输出跳。
在运行转换时,一个线程运行一个步骤或步骤的一份拷贝,如图1-2中“表输入”步骤左上角的X4,表示4个线程执行该步骤,数据行将复制4份。所有步骤的线程几乎同时运行,数据行连续地流过步骤之间的跳。
(2)转换的跳
跳(hop)就是步骤间带箭头的连线,跳定义了步骤之间的数据通路。跳实际上是两个步骤之间的被称为行级(row set)的数据行缓存。行集的大小可以在转换的设置里定义,Kettle 8.3 默认为10000行。当行集满了,向行集写数据的步骤将停止写入,直到行集里又有了空间。当行集空了,从行集读取数据的步骤停止读取,直到行集里又有可读的数据行。注意,跳在转换里不能循环,因为在转换里每个步骤都依赖于前一个步骤获取字段。
(3)并行
跳的这种基于行集缓存的规则允许每个步骤都由一个独立的线程运行,这样并发程度最高。这一规则也允许以最小消耗内存的数据流的方式来处理。在数据分析中,我们经常要处理大量数据,所以这种并发低耗内存的方式也是ETL工具的核心需求。对于Kettle转换,不可能定义一个步骤在另一个步骤之后执行,因为所有步骤都以并发方式执行:当转换启动后,所有步骤都同时开始,从它们的输入跳中读取数据,并把处理过的数据写到输出跳,直到输入跳不再有数据,就中止步骤的运行。当所有的步骤都中止了,整个转换就中止了。从功能的角度看,转换具有明确的起点和终点。例如,图1-2里显示的转换起点是“表输入”步骤,因为这个步骤生成数据行。终点是“文本文件输出”步骤,因为这个步骤将数据写到文件,而且后面不再有其它节点。前面关于步骤并发执行与起点、终点的描述看似自相矛盾,实际上只是看问题的角度不同。一方面,可以想象数据沿着转换里的步骤移动,形成一条行头到尾的数据通路。另一方面,转换里的步骤几乎是同时启动的,所以不可能判断出哪个步骤是第一个启动的步骤。如果想要一个任务沿着指定的顺序执行,就要使用后面介绍的“作业”了。(4)数据行
数据以数据行的形式沿着步骤移动。一个数据行是零到多个字段的集合,字段包括这里所列的几种数据类型。String:字符类型数据。
Number:双精度浮点数。
Integer:带符号64位长整型。
BigNumber:任意精度数值。
Date:毫秒精度的日期时间值。
Boolean:取值为true或false的布尔值。
Binary:二进制类型,可以包括图形、音视频或其它类型的二进制数据。
名称:行里的字段名应该是唯一的。
数据类型:字段的数据类型。
长度:字符串的长度或BigNumber类型的长度。
精度:BigNumber数据类型的十进制精度。
掩码:数据显示的格式(转换掩码)。如果要把数值型(Number、Integer、BigNumber)或日期类型转换成字符串类型就需要用到掩码,例如在图形界面中预览数值型、日期型数据,或者把这些数据保存成文本或XML格式时。
小数点:十进制数据的小数点格式。不同文化背景下小数点符号是不同的,一般是点(.)或逗号(,)。
分组符号(数字里的分割符号):数值类型数据的分组符号,不同文化背景下数字里的分组符号也是不同的,一般是逗号(,)或点(.)或单引号(')。
初始步骤:Kettle在元数据里还记录了字段是由哪个步骤创建的,可以让用户快速定位字段是由转换里的哪个步骤最后一次修改或创建。
行集里的所有行都应该有同样的数据结构。当从多个步骤向一个步骤里写数据时,多个步骤输出的数据行应该有相同的结构,即字段名、数据类型、字段顺序都相同。
字段元数据不会在转换中发生变化。字符串不会自动截去长度以适应指定的长度,浮点数也不会自动取整以适应指定的精度。这些功能必须通过一些指定的步骤来完成。
默认情况下,空字符串被认为与NULL相等,但可以通过kettle.properties文件中的kettle_empty_string_differs_from_null参数来设置。
(5)数据类型转换
既可以显式地转换数据类型,如在“字段选择”步骤中直接选择要转换的数据类型,也可以隐式地转换数据类型,如将数值数据写入数据库的varchar类型字段。这两种形式的数据转换实际上是完全一样的,都是使用了数据和对数据的描述。Date和String的转换
Numeric和String的转换
其它转换
3. 作业
大多数ETL项目都需要完成各种各样的维护任务。例如,当运行中发生错误,要做哪些操作;如何传送文件;验证数据库表是否存在等等。这些操作要按照一定顺序完成,就需要一个可以串行执行的作业来处理。一个作业包括一个或多个作业项,这些作业项以某种顺序来执行。作业执行顺序由作业项之间的跳(job hop)和每个作业项的执行结果来决定。图1-3显示了一个典型的装载数据仓库的作业。(1)作业项
作业项是作业的基本构成部分。如同转换的步骤,作业项也可以使用图标的方式图形化展示。但是作业项有一些地方不同于步骤:步骤的名字在转换中是唯一的,但作业项可以有影子拷贝(shadow copies),如图1-3中的“错误邮件”。这样可以把一个作业项放在多个不同的位置。这些影子拷贝里的信息都是相同的,编辑了一份拷贝,其它拷贝也会随之修改。
在作业项之间可以传递一个结果对象(result object)。这个结果对象里包含了数据行,它们不是以流的方式传递的,而是等一个作业项执行完了,再传递给下一个作业项。
默认情况下,所有的作业项都以串行方式执行,只是在特殊的情况下以并行方式执行。
(2)作业的跳
如同转换中各步骤之间的跳,作业的跳是作业项之间的连接线,它定义了作业的执行路径。作业里每个作业项的不同运行结果决定了作业的不同执行路径。对作业项的运行结果的判断如下:无条件执行:不论上一个作业项执行成功还是失败,下一个作业项都会执行。这是一种黑色的连接线,上面有一个锁的图标,如图1-3中 “start”到“传送数据”作业项之间的连线。
当运行结果为真时执行:当上一个作业项的执行结果为真时,执行下一个作业项,通常在需要无错误执行的情况下使用。这是一种绿色连接线,上面有一个对钩号图标,如图1-3中横向的三个连线。
当运行结果为假时执行:当上一个作业项的执行结果为假或没有成功时,执行下一个作业项。这是一种红色的连接线,上面有一个红色的叉子图标。
(3)多路径和回溯
Kettle使用一种回溯算法来执行作业里的所有作业项,而且作业项的运行结果(真或假)也决定执行路径。回溯算法是一种深度遍历:假设执行到了图里的一条路径的某个节点时,要依次执行这个节点的所有子路径,直到没有再可以执行的子路径,就返回该节点的上一节点,再反复这个过程。首先“Start”作业项搜索所有下一个节点作业项,找到了“A”和“C”。
执行“A”
搜索“A”后面的作业项,发现了“B”。
执行“B”。
搜索“B”后面的作业项,没有找到任何作业项。
回到“A”,也没有发现其它作业项。
回到“Start”,发现另一个要执行的作业项“C”。
执行“C”。
搜索“C”后面的作业项,没有找到任何作业项。
回到“Start”,没有找到任何作业项。
作业结束。
因为作业可以是嵌套的,除了作业项有运行结果,作业也需要一个运行结果,因为一个作业可以是另一个作业的作业项。一个作业的运行结果,来自于它最后一个执行的作业项。这个例子里作业的执行顺序可能是ABC,也可能是CAB,所以不能保证作业项C的结果就是作业的结果。
作业里允许循环。当在作业里创建了一个循环,一个作业项就会被执行多次,作业项的多次运行结果会保存在内存里,便于以后使用。
(4)并行执行
一个作业项能以并发的方式执行它后面的作业项,如图1-5中的作业所示。在这个例子里,作业项A和C几乎同时启动。(5)作业项结果
作业执行结果不仅决定了作业的执行路径,而且还向下个作业项传递了一个结果对象。结果对象包括了这里所示的一些信息。一组数据行:在转换里使用“复制记录到结果”步骤可以设置这组数据行。与之对应,使用“从结果获取记录”步骤可以获取这组数据行。在一些作业项里,如“Shell”、“转换”、“作业”的设置里有一个选项可以循环执行这组数据行,这样可以通过参数化来控制转换和作业。
一组文件名:在作业项的执行过程中可以获得一些文件名。这组文件名是所有与作业项发生过交互的文件的名称。例如,一个转换读取和处理了10个XML文件,这些文件名就会保留在结果对象里。使用转换里的“从结果获取文件”步骤可以获取到这些文件名,除了文件名还能获取到文件类型。“一般”类型是指所有的输入输出文件,“日志”类型是指Kettle日志文件。
读、写、输入、输出、更新、删除、拒绝的行数和转换里的错误数。
脚本作业项的退出状态:根据脚本执行后的状态码,判断脚本的执行状态,再执行不同的作业流程。
4. 数据库连接
Kettle里的转换和作业使用数据库连接来连接到关系型数据库。Kettle数据库连接实际是数据库连接的描述,也就是建立实际连接需要的参数。实际连接只是在运行时才建立,定义一个Kettle的数据库连接并不真正打开一个数据库的连接。各种数据库的行为彼此不同,图1-8所示的数据库连接窗口里有很多种数据库。(1)一般选项
在数据库连接窗口中主要设置三个选项:连接名称:设定一个在作业或转换范围内唯一的名称。
连接类型:从数据库列表中选择要连接的数据库类型。根据选中数据库的类型不同,要设置的访问方式和连接参数也不同,某些Kettle步骤或作业项生成SQL语句时使用的方言也不同。
访问方式:在列表里可以选择可用的访问方式,一般都使用JDBC连接,不过也可以使用ODBC数据源、JNDI数据源、Oracle的OCI连接(使用Oracle命名服务)等。
主机名:数据库服务器的主机名或IP地址。
数据库名:要访问的数据库名。
端口号:默认是选中的数据库服务器的默认端口号。
用户名和密码:连接数据库服务器的用户名和密码。
(2)特殊选项
对于大多数用户来说,使用数据库连接窗口的“一般”标签就足够了。但偶尔也可能需要设置对话框里的“高级”标签的内容,如图1-9所示。支持Boolean数据类型:对Boolean(bit)数据类型,大多数数据库的处理方式都不相同,即使同一个数据库的不同版本也可能不同。许多数据库根本不支持Boolean数据类型,如Oracle和MySQL,所以默认情况下,Kettle使用一个char(1)字段的不同值(如Y或N)来代替Boolean字段。如果选中了这个选项,Kettle就会为支持Boolean类型的数据库生成正确的SQL方言。
双引号分割标识符:强迫SQL语句里的所有标识符(如列名、表名)加双引号,一般用于区分大小写的数据库,或者Kettle里定义的关键字列表和实际数据库不一致的情况。
强制转为小写:将所有表名和列名转为小写。
强制转为大写:将所有表名和列名转为大写。
默认模式名:当不明确指定模式名时默认的模式名。
连接后要执行的SQL语句:一般用于建立连接后,修改某些数据库参数,如session级的变量或调试信息等。
5. 连接与事务
数据库连接只在执行作业或转换时使用。在作业里,每一个作业项都打开和关闭一个独立的数据库连接。转换也是如此,但是因为转换里的步骤是并行的,每个步骤都打开一个独立的数据库连接并开始一个事务。尽管这样在很多情况下会提高性能,但当不同步骤更新同一个表时,也会带来锁和参照完整性问题。为了解决打开多个数据库连接而产生的问题,Kettle可以在一个事务中完成转换。在转换设置对话框的 “杂项”标签中,设置“使用唯一连接”,可以完成此功能。当选中了这个选项,所有步骤里的数据库连接都使用同一个数据库连接。只有所有步骤都正确,转换正确执行,才提交事务,否则回滚事务。6. 元数据与资源库
转换和作业是Kettle的核心组成部分。在介绍Kettle设计原则时曾经讨论过,它们可以用XML格式来表示,可以保存在资料库里,也可以用Java API的形式来表示。它们的这些表示方式,都依赖于这里所列的元数据。名字:转换或作业的名字。不论是在一个ETL工程内还是在多个ETL工程内,都应该尽可能使用唯一的名字,这样在远程执行时或多个ETL工程共用一个资源库时都会有帮助。
文件名:转换或作业所在的文件名或URL。只有当转换或作业是以XML文件的形式存储时,才需要设置这个属性。当从资源库加载时,不必设置这个属性。
目录:这个目录是指在Kettle资源库里的目录。当转换或作业保存在资源库里时设置,保存为XML文件时不用设置。
描述:这是一个可选属性,用来设置作业或转换的简短的描述信息。如果使用了资源库,这个描述属性也会出现在资源库浏览窗口的文件列表中。
扩展描述:也是一个可选属性,用来设置作业或转换的详细描述信息。
数据库资源库:把所有的ETL信息保存在关系数据库中。这种资源库比较容易创建,详见本专题的(十二)Kettle元数据管理。
文件资源库:在一个文件目录下定义一个资源库。因为Kettle使用的是Apache VFS虚拟文件系统,所以这里的文件目录是一个广泛的概念,包括zip文件、Web服务、FTP服务等。
Pentaho资源库:包含在Kettle企业版中的一个插件。这种资源库实际是一个内容管理系统(Content Manage System,CMS),它具备一个理想资源库的所有特性,包括版本控制和依赖完整性检查。
中央存储:在一个中心位置存储所有的转换和作业。ETL用户可以访问到工程的最新视图。
文件加锁:防止多个用户同时修改同一文件。
修订管理:一个理想的资源库可以存储一个转换或作业的所有历史版本,以便将来参考。可以打开历史版本,并查看变更日志。
依赖完整性检查:检查资源库转换或作业之间的相互依赖关系,可以确保资源库里没有丢失任何链接,没有丢失任何转换、作业或数据库连接。
安全性:防止未授权的用户修改或执行ETL作业。
引用:重新组织转换、作业,或简单重命名,都是ETL开发人员的常见工作。要做好这些工作,需要完整的转换或作业的引用。
7. 工具
Kettle是一个独立的产品,但它包括了ETL开发和部署阶段用到的多个工具程序,主要包括:Spoon:图形化工具,用于快速设计和维护复杂的ETL工作流。
Kitchen:运行作业的命令行工具。
Pan:运行转换的命令行工具。
Carte:轻量级(大概1MB)Web服务器,用来远程执行转换或作业。一个运行有Carte进程的机器可以作为从服务器,从服务器是Kettle集群的一部分。
(1)Spoon
Spoon是Kettle的集成开发环境(IDE)。它基于Java SWT提供了图形化的用户接口,主要用于ETL的设计。在Kettle安装目录下,有启动Spoon的脚本,如Windows下的Spoon.bat,类UNIX下的spoon.sh。Windows用户还可以通过执行Kettle.exe启动Spoon。Spoon的屏幕截图如图1-11所示。(2)Kitchen和Pan
作业和转换可以在图形界面里执行,但这只是在开发、测试和调试阶段。在开发完成后,需要部署到实际运行环境中,在部署阶段Spoon就很少用到了。部署阶段一般需要通过命令行执行,并把命令行放到Shell脚本中,并定时调度这个脚本。Kitchen和Pan命令行工具就是用于这个阶段,在实际的生产环境使用。Kitchen和Pan工具是Kettle的命令行执行程序。实际上,Kitchen和Pan只是在Kettle执行引擎上的封装。它们只是解释命令行参数,调用并把这些参数传递给Kettle引擎。Kitchen和Pan在概念和用法上都非常相近,这两个命令的参数也基本是一样的。唯一不同的是Kitchen用于执行作业,Pan用于执行转换。在使用命令行执行作业或转换时,需要重点考虑网络传输的性能。Kettle数据流将数据作为本地行集缓存。如果数据源和目标之间需要通过网络传输大量数据,将Kettle部署于源或目标服务器上会极大提升性能。Kitchen和Pan都通过脚本的方式启动,在Windows系统下,脚本名称是Kitchen.bat和Pan.bat,在类UNIX系统下,脚本名称是Kitchen.sh和Pan.sh。在执行这些脚本以及Kettle自带的其它脚本时,要把Kettle目录切换为控制台的当前目录。类UNIX系统的脚本默认情况下是不能执行的,必须使用chmod命令使脚本可执行。Kettle用Java语言开发,因此在使用Kettle命令行时需要注意匹配Java版本。例如Kettle8.2.0版本需要JDK 1.8的支持。这样就能在Spoon的图形界面下进行设计开发调试,然后用命令行执行保存在本地文件或资源库中的转换或作业,秉承Java程序一次编译到处运行的理念。下面是一些命令行的例子。Kitchen和Pan的命令行包含了很多参数,在不使用任何参数的情况下,直接运行Kitchen和Pan会列出所有参数的帮助信息。参数的语法规范为:# 列出所有有效参数
Kettle-home> ./kitchen.sh
# 运行一个存储在文件中的作业
Kettle-home> ./kitchen.sh /file:/home/foo/daily_load.kjb
# 运行一个资源库里的作业
Kettle-home> ./kitchen.sh /rep:pdirepo /user:admin /pass:admin /dir:/ /job:daily_load.kjb
# 运行一个存储在文件中的转换
Kettle-home> ./pan.sh -file:/home/mysql/MongoDB_to_MySQL.ktr
[/-]name [[:=]value]
参数以斜线(/)或横线(-)开头,后面跟参数名。大部分参数名后面都要有参数值。参数名和参数值之间可以是冒号(:)或等号(=),参数值里如果包含空格,参数值必须用单引号(')或双引号(")引起来。作业和转换的命令行参数非常相似,这两个命令的参数可以分为下面几类:指定作业或转换
控制日志
指定资源库
列出可用资源库和资源库内容
尽管Kitchen和Pan命令的参数名基本相同,但这两个命令里的dir参数和listdir参数的含义有一些区别。对Kitchen而言,dir和listdir参数列出的是作业的路径,Pan命令里的这两个参数列出的是转换路径。除了共有的命令行参数外,Kitchen和Pan自己特有的命令行参数分别见表1-5、表1-6。
表1-5 Kitchen特有的命令行参数
表1-6 Pan特有的命令行参数
(3)Carte
Carte服务用于执行一个作业,就像Kitchen一样。但和Kitchen不同的是,Carte是一个服务,一直在后台运行,而Kitchen只是运行完一个作业就退出。当Carte在运行时,一直在某个端口监听HTTP请求。远程机器客户端给Carte发出一个请求,在请求里包含了作业的定义。当Carte接到了这样的请求后,它验证请求并执行请求里的作业。Carte也支持其它几种类型的请求,这些请求用于获取Carte的执行进度、监控信息等。Carte是Kettle集群中一个重要的构建模块。集群可将单个工作或转换分成几部分,在Carte服务器所在的多个计算机上并行执行,因此可以分散工作负载。关于Carte以及Kettle集群的配置和使用,详见本专题的(十一)Kettle集群与数据分片。8. 虚拟文件系统
灵活而统一的文件处理方式对ETL工具来说非常重要,所以Kettle支持URL形式的文件名。Kettle使用Apache的通用VFS作为文件处理接口,替用户解决各种文件处理方面的复杂情况。例如,使用Apache VFS可以选中.zip压缩包内的多个文件,和在一个本地目录下选择多个文件一样方便。表1-7里显示的是VFS的一些典型的例子。表1-7 VFS文件规范的例子四、小结编程和使用工具是常用的开发ETL应用的方法,而ETL工具又有基于映射和基于引擎之分。面对各种各样的ETL开发工具,之所以选择Kettle主要归结为下面几点原因。最小化编码工作
极简的多线程与并发执行
完备的转换步骤与作业项
完全跨平台
版权声明:
本文为大数据技术与架构整理,原作者独家授权。未经原作者允许转载追究侵权责任。编辑|冷眼丶微信公众号|import_bigdata文章不错?点个【在看】吧! ?