VisionTS:基于时间序列的图形构建高性能时间序列预测模型,利用图像信息进行时间序列预测
共 8165字,需浏览 17分钟
·
2024-10-24 17:00
来源:DeepHub IMBA 本文约4000字,建议阅读10+分钟
VisionTS作为一种创新的时间序列基础模型,在预测任务中展现出了卓越的性能。
-
迁移学习LLM:通过针对时间序列任务定制的微调或分词策略,重新利用预训练的大型语言模型(LLM),如GPT-4或Llama。 -
从零训练:构建大规模时间序列数据集,并从头开始预训练模型,以期望其能泛化到新数据。
-
图像如何在内部编码序列信息? -
利用预训练计算机视觉模型进行时间序列分析的概念 -
VisionTS:一种适用于时间序列数据的预训练Vision Transformer模型。
为什么选择图像?
图1:来自ImageNet数据集的图像示例,展示了时间序列的典型特征
如前所述,预训练文本模型(迁移学习LLM)已被应用于时间序列任务,但效果有限。
-
连续性:时间序列和图像都是连续的数据形式,而文本是离散的。 -
相似的数据来源:时间序列和图像都直接捕捉环境观测,而文本是认知加工的产物。 -
可比的信息密度:文本通常意义密集,而图像和时间序列数据作为自然信号具有更多的冗余信息。 -
序列信息编码:与文本不同,图像本身就包含了时间序列的多种特征(参见图1)。
基于这些原因,图像似乎是一个具有潜力的数据模态。正如Yann LeCun在Lex Fridman的播客中所指出的,仅依靠文本是不足以构建强大的通用人工智能(AGI)的。图像作为更丰富、高维度的数据形式,可能提供对世界更深入的理解。
此外,图像数据的丰富程度远超其他模态——例如,考虑自动驾驶汽车中的激光雷达(LIDAR)每秒捕获和处理的大量数据。
所以关键问题就变成了如何创建一个利用图像进行预测的基础时间序列模型?
论文提出了一个方法是重新利用预训练的计算机视觉模型,将图像重构任务转化为时间序列预测任务——这正是VisionTS所实现的。
掩码自编码视觉Transformer
在介绍VisionTS之前,我们需要先解释其核心机制:视觉掩码自编码器(MAE)。
简而言之,MAE的任务是重构一个被部分遮蔽的分块图像(图2):
-
将输入图像分割成块,随机遮蔽约75%的块。 -
仅将可见的块输入编码器——通常是一个Vision Transformer(ViT)。 -
编码后的tokens与遮蔽tokens一起输入解码器。 -
模型通过优化来重构原始图像。 -
预训练完成后,解码器被移除。
VisionTS模型概述
VisionTS是一种创新的预训练掩码视觉Transformer模型,它巧妙地将图像重构任务转化为时间序列预测。
由于MAE原本是设计用于处理图像的,我们需要将时间序列数据转换为分块图像作为输入。在模型推理后,输出再被转换回时间序列形式,从而生成预测结果。这个过程如图3所示:
-
首先为时间序列选择一个回溯窗口(L),然后根据其周期性(P)将序列分割成块。这产生了[L/P]个块,它们被堆叠形成一个P × [L/P]大小的2D矩阵。本质上,这个矩阵可以被视为一个灰度图像。 -
图像形成后,进行归一化处理。这里存在一个技术挑战:MAE模型是在固定大小为224 × 224像素的ImageNet图像上预训练的,而我们生成的矩阵大小是P × [L/P]。 -
为了解决这个尺寸不匹配的问题,采用双线性插值将矩阵调整为(N * S, n * S),其中N是水平块的数量,n代表可见块的数量。n的值由上下文长度(L)与预测长度(H)的比率决定。调整后的图像由(N × n)个可见块和N × (N-n)个遮蔽块组成。例如在图3中,图像包含7×6个可见块和7×1个遮蔽块。 -
这些遮蔽块随后被输入到MAE模型中进行解码和重构。 -
一旦解码完成,整个过程被反向执行。解码后的块经过双线性插值、反归一化和扁平化处理,将图像转换回一维序列,作为最终的预测输出。
总的来说,在ImageNet上预训练MAE是相对直接的过程。VisionTS的创新之处在于它巧妙地利用MAE进行时间序列预测。
性能评估
作者对VisionTS进行了全面的性能评估。他们将VisionTS与其他基础模型、深度学习模型、机器学习模型以及统计模型进行了比较。评估包括测试VisionTS作为零样本预测器(预测未见数据)的能力,以及探索少样本微调(如何通过在小规模数据上训练来提高性能)的效果。
Monash基准测试
首先使用Monash数据集对VisionTS与其他模型进行了比较。
图4展示了来自29个Monash数据集(在其测试集上)的聚合结果。研究者计算了归一化MAE(。值得注意的是在这个测试中,只有llmtime和VisionTS是作为零样本预测器进行评估的,其他模型都经过了完整的训练。
-
VisionTS在所有模型中排名第二,这充分证明了利用计算机视觉模型进行时间序列分析的潜力。 -
MOIRAI-small模型表现最佳,尽管从技术上讲,它经过了微调。 -
研究者仅使用了MOIRAI-small版本——如果能包括更大版本的MOIRAI模型进行比较,可能会得到更全面的结果。 -
无论如何,这些结果都显示了预训练时间序列模型的巨大潜力。
长期预测基准测试
-
VisionTS在总体评分中表现最佳,赢得了最多的胜利。 -
预训练模型(无论是在图像还是时间序列上预训练)通常表现优于其他模型。 -
这里使用的Monash数据集(Weather和Electricity)并不包含在MOIRAI的预训练数据中,这使得MOIRAI在这种情况下也可以被视为零样本预测器。 -
Informer、Autoformer和DLinear并非基础模型。如果对这些模型进行完整训练,可能会提高基准测试的竞争性。研究者在后续实验中提供了这些模型完整训练后的结果(见表2)。
-
VisionTS再次在总体排名中位居第一,获得最多胜利。 -
微调显著提升了VisionTS的性能,除了在ETTh1和ETTh2数据集上的改善较小,可能是由于这些数据集的频率较低。 -
零样本VisionTS虽然不能超越所有在每个数据集上单独训练的模型,但通过最小程度的微调就能带来显著的性能提升。
作者还分析了上下文长度如何影响模型性能(见图5)。结果表明,随着上下文长度的增加,模型性能普遍得到改善,尤其是在高频数据集中。这一发现与其他预训练模型(如MOIRAI)的结果一致。一般来说,超过1000的上下文长度通常能带来性能提升:
模型参数规模的影响分析
-
Base:122M参数 -
Large:330M参数 -
Huge:657M参数
与传统统计模型的比较
总结
-
在更大规模、更多样化的图像数据集上预训练MAE模型; -
在时间序列数据上进一步预训练或微调MAE模型; -
探索除Vision Transformer之外的其他网络架构。
关于我们
数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。
新浪微博:@数据派THU
微信视频号:数据派THU
今日头条:数据派THU