精选11篇顶会论文,深度学习时间序列预测模型汇总!(含2024最新)
在当前数据为王的时代,时间序列预测技术在金融市场、医疗诊断、气象预报等领域发挥着关键作用,而深度学习作为人工智能的重要分支,为解决复杂时间序列预测问题提供了强大工具。本文汇总了11篇顶会论文,涵盖基于递归神经网络(RNN)、卷积神经网络(CNN)、Transformer架构以及多元时序预测等多种模型,展示了深度学习在该领域的最新进展和新思路。论文提出创新策略,如分段递归神经网络(SegRNN)、水波信息传输和递归加速网络(WITRAN)、多层次解释神经网络(MLCNN)、反相Transformer(iTransformer)、具有自适应路径的多尺度Transformer(Pathformer)等,显著提升了预测的准确性和效率。此外,还探讨了基于Transformer的频率增强型分解模型(FEDformer)、全MLP架构(TSMixer)、傅里叶图神经网络(FourierGNN)等方法,展示了深度学习在多元时序预测中的广泛应用。这些模型在多个真实数据集上表现优异,为时间序列预测提供了新的方向和方法。
在当今数据为王的时代背景下,时间序列预测技术在金融市场分析、医疗诊断、气象预报等多个关键领域发挥着不可替代的作用。而作为人工智能领域的重要组成部分,深度学习凭借其强大的算法和模型架构,为解决复杂多变的时间序列预测问题提供了前所未有的有力解决方案。
本文系统梳理了11篇顶级会议论文,全面整合了基于递归神经网络、卷积神经网络、Transformer架构以及多元时序预测等不同模型类型。这些研究不仅反映了该领域的前沿动态,更深入探讨了如何有效利用深度学习技术提升时间序列预测的准确性。
RNN时序预测模型
1、SegRNN: Segment Recurrent Neural Network for Long-Term Time Series Forecasting(ICLR 2024)
SegRNN:用于长期时间序列预测的分段递归神经网络
简述: 本文提出了两种创新策略,即分段迭代和并行多步预测(PMF),以减少RNN在长期时间序列预测(LTSF)任务中的循环迭代次数。通过整合这些策略,研究人员开发了一种新的RNN变体,称为SegRNN。实验结果表明,SegRNN不仅提升了预测的准确性,还显著加快了推理速度,并且在运行时间和内存使用上相比基于Transformer的模型减少了78%以上。

WITRAN: Wave information transmission as well as a recurrent acceleration network for long-term time series forecasting (NeurIPS, 2023)
Witran:用于长期时间序列预测的水波信息传输和递归加速网络
改写内容

CNN时序预测模型
Through the Integration of Near-Term and Long-Term Vision for Enhanced Forecasting Capabilities(AAAI 2020)
通过融合近距离和远距离的未来视觉来实现更好的预测
本研究提出了一种名为MLCNN的多层次解释性神经网络模型,作为一种新型的多任务深度学习架构,该模型整合了卷积神经网络和改进的编码器-解码器结构,通过融合不同时间尺度的预测结果来增强预测效果。引入自回归模型后,MLCNN在真实世界数据集上的性能显著优于现有方法,其RMSE和MAE指标分别较现有方法平均下降了4.59%和6.87%。

Transformer时序预测模型
4、iTransformer: Inverted Transformers Are Effective for Time Series Forecasting(ICLR 2024)****
iTransformer:反相变压器对时间序列预测有效
该研究构建了iTransformer模型,通过将时间序列中的每个变量独立嵌入为变量子token,并通过自注意力机制和前馈网络学习非线性表示,有效捕捉多变量间的相互关联性,从而提升预测性能。实验结果表明,iTransformer在具有挑战性的标准真实数据集上展示了卓越的技术性能,显著提升其性能、泛化能力和回溯窗口的适应性,使其成为时间序列预测领域的重要基础。

5、Multi-scale Transformers with Adaptive Pathways for Time Series Forecasting(ICLR 2024)
具有自适应路径的多尺度变换器用于时间序列预测
简述: 本文提出了Pathformer,一种具有自适应通路的多尺度Transformer模型,用于时间序列预测。该模型通过将时间序列划分为不同尺度的斑块并进行双重注意力机制,捕捉全局和局部特征。自适应路径进一步优化了多尺度建模过程,提升了预测精度和泛化性。实验证明,Pathformer在多个真实数据集上超越了当前所有模型,展现了卓越的性能和泛化能力。

6、Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series Forecasting(ICLR 2023)
Crossformer:利用跨维依赖进行多变量时间序列预测的转换器
本文开发了一种新型的Transformer架构,专为多变量时间序列预测任务设计。该模型采用差分自适应权重(DSW)嵌入方法,将多变量时间序列数据转换为二维矩阵形式。通过引入两阶段注意力机制(TSA),模型能够有效捕捉时间维度和跨维度之间的相互依赖关系。在编码器-解码器框架下,Crossformer模型实现了多尺度特征的高效融合。实验研究表明,该模型在真实世界数据集上的预测性能显著优于现有方法。

7、FEDformer: Frequency Enhanced Decomposed Transformer for Long-term Series Forecasting(ICML 2022)
FEDformer:用于长期序列预测的频率增强型分解变压器
简述: 本文提出了一种新的时间序列预测方法FEDformer,结合了Transformer和季节性趋势分解,以捕捉时间序列的全局趋势和细节结构。利用时间序列在傅里叶变换中的稀疏表示,FEDformer提高了长期预测的效率和准确性,具有线性复杂度。实验显示,FEDformer在多变量和单变量时间序列预测上的表现优于现有技术,显著降低了预测误差。

多元时序预测模型
8、TSMixer: An all-MLP Architecture for Time Series Forecasting(KDD 2023)
TSMixer:用于时间序列预测的全 MLP 架构
简述: 本文研究了线性模型在时间序列预测中的应用,并介绍了新型架构——时间序列混频器(TSMixer),它采用多层感知器(MLP)堆叠设计,通过混合时间和特征维度信息来高效提取数据特征。在多个基准测试中,TSMixer的简单实现与专用于特定任务的先进模型相当,甚至在真实零售数据集M5上超越了其他最先进模型。

9、FourierGNN:Rethinking Multivariate Time Series Forecasting from a Pure Graph Perspective(NeurIPS 2023)
FourierGNN:从纯图的角度重新思考多变量时间序列预测
简述: 本文提出了傅里叶图神经网络(FourierGNN),一种新的多变量时间序列预测方法,通过将每个序列值视为图节点并将滑动窗口表示为时空全连接图,统一考虑时空动态。FourierGNN通过堆叠文中提出的傅里叶算子(FGO)在傅里叶空间中执行矩阵乘法,具有低复杂度和高效的表达能力。实验结果表明,FourierGNN在预测性能、效率和参数数量上优于最先进的方法。

10、Pre-training Enhanced Spatial-temporal Graph Neural Network for Multivariate Time Series Forecasting(KDD 2022)
面向多变量时间序列预测的预训练增强时空图神经网络
本研究设计了一种创新性框架,基于可扩展的时间序列预训练模型STEP,提升时空图神经网络STGNNs的能力,以处理长时历史时间序列数据。STEP模型通过分析过去两周的历史数据,提取时间序列特征,生成片段级别的表示向量,为时空图神经网络STGNNs提供上下文信息,促进时空序列间的依赖关系建模。实验结果表明,该框架显著提升了时空图神经网络STGNNs的性能,通过预训练模型有效捕获了时间模式。

11、Bridging the Gaps: Advanced Multivariate Time Series Forecasting with Graph Neural Networks (KDD 2020)
连接点:多元时间序列预测与图神经网络
简述: 本文提出了一种针对多变量时间序列数据设计的通用图神经网络框架,通过图学习模块自动提取变量间的单向关系,并允许集成外部知识。该方法结合了混合跳跃传播层和膨胀起始层,以捕获时间和空间依赖性。实验结果显示,该模型在多个基准数据集上优于最先进的方法,并在提供额外结构信息的交通数据集上与其他方法性能相当。

码字不易,欢迎大家点赞评论收藏!
关注下方《享享学AI》
回复【深度学习时间序列预测】获取完整论文
👇
