1
论文标题:Unlocking the Power of Patch Patch-Based MLP for Long-Term Time Series Forecasting(AAAI2025)
本文针对近期改进 Transformer 架构用于长期时间序列预测(LTSF)任务存疑,认为其 Patch 机制未完全解决时间信息丢失问题且过去跨变量模型对变量交互信息应用不当,基于此提出用于 LTSF 任务的基于patch的多层感知器(Patch - MLP)模型,采用简单移动平均法提取平滑分量和含噪残差,通过通道混合交换语义信息并利用通道独立处理随机噪声,该模型在多种评估指标下达最先进结果,展现出在 LTSF 方面的有效性与优势。
2
论文标题:WPMixer - Efficient Multi - Resolution Mixing for Long - Term Time Series Forecasting(AAAI2025)
本文指出长期时间序列预测面临捕捉复杂模式和长期依赖的挑战,现有方法在效率和性能上存在局限,为此提出 WPMixer 模型,该模型通过高效的多分辨率混合机制,结合小波变换和多层感知器(MLP),能有效融合不同尺度的信息,既捕捉局部细节又把握长期趋势,在多个标准数据集上的实验表明,WPMixer 模型相比当前最先进的方法在准确性和计算效率上表现更优,为长期时间序列预测提供了更有效的解决方案。
3
论文标题:Adaptive Multi-Scale Decomposition Framework for Long-Term Time Series Forecasting with MLP and Attention(AAAI2025)
本文针对长时间序列预测问题,指出传统方法难以有效捕捉不同尺度特征,提出一种结合多层感知器(MLP)和注意力机制的自适应多尺度分解框架;该框架先自适应地将时间序列分解为不同尺度分量,再用 MLP 分别处理各分量并借助注意力机制融合信息,以提升对长期依赖和复杂模式的建模能力;实验表明,该框架在多个基准数据集上相较现有方法,预测准确性和泛化性能更佳,为长期时间序列预测提供了更优方案。
4
论文标题:xPatch - Dual - Stream Time Series Forecasting with Patch - based MLP(AAAI2025)
本文提出基于Patch多层感知器(Patch-based MLP)的双流(Dual - Stream)时间序列预测模型 xPatch;该模型利用双流结构分别处理不同特征信息,借助 Patch-based MLP 有效捕捉序列的局部和全局模式,在融合两路信息后实现更精准的预测,经实验验证,在多个标准时间序列数据集上,xPatch 模型较现有先进方法取得了更优的预测性能,为时间序列预测提供了新的有效方案。
5
论文标题:FLDmamba: Integrating Fourier and Laplace Transform Decomposition with Mamba for Enhanced Time Series Prediction(ICLR2025)
本文提出 FLDmamba(傅里叶和拉普拉斯变换分解 Mamba),FLDmamba 利用傅里叶和拉普拉斯变换的优势,有效捕捉时间序列数据中的多尺度周期性和瞬态动态,并提升模型对数据噪声问题的鲁棒性。实验表明,FLDmamba 在时间序列预测基准上表现优异,优于基于 Transformer 和其他基于 Mamba 的架构。该工作为长期时间序列预测提供了计算高效且有效的解决方案,本文开放了代码和数据:https://anonymous.4open.science/r/FLDmamba。
6
论文标题:HDMixer- Hierarchical Dependency with Extendable Patch for Multivariate Time Series Forecasting(AAAI2024)
本文提出了一种针对多元时间序列(MTS)预测的纯MLP架构HDMixer,旨在解决现有patch技术在处理时序边界信息丢失及多维度依赖建模不足的问题,HDMixer包含两大核心模块:1)长度可扩展patch生成器(LEP),通过自适应调整patch长度保留时序边界信息,缓解序列语义不连贯问题;2)层级依赖探索器(HDE),基于纯MLP架构实现三重依赖建模——补丁内短期动态捕捉、跨patch长期关联分析及变量间复杂交互建模。相关代码已开源至https://github.com/hqh0728/HDMixer。
7
论文标题:GLFNet: Global and Local Frequency-domain Network for Long-term Time Series Forecasting(CIKM2024)
本文提出了全局与局部频域网络(GLFNet),这一新型架构通过频域高效学习全局时间依赖和局部时间关系。具体而言,作者设计了频域滤波层以替代自注意力机制来学习时间交互,并构建了由全局滤波块和局部滤波块组成的双滤波块,分别用于学习patch间的全局依赖和patch内的局部依赖。在七个基准数据集上的实验表明,该方法在实现优越性能的同时提升了计算效率。
8
论文标题:LEARNING TO EMBED TIME SERIES PATCHES INDEPENDENTLY(ICLR2024)
本文指出,捕获块间依赖并非时间序列表示学习的最优策略,独立嵌入分块反而能生成更优表示。具体而言,本文提出:1)采用简单的块重建任务,通过自编码独立处理每个分块而不依赖其他块;2)使用基于块的简单MLP实现独立嵌入。此外,引入互补对比学习以分层高效捕获相邻时序信息。实验表明,该方法相比现有SOTA的Transformer模型,在时间序列预测与分类任务中性能更优,同时在参数数量、训练及推理效率上显著提升。代码已开源至:https://github.com/seunghan96/pits。
9
论文标题:SparseTSF: Modeling Long-term Time Series Forecasting with 1k Parameters(ICLR2024)
本文提出了SparseTSF超轻量级新型模型,旨在以最小计算资源应对长时序范围内复杂时间依赖关系的建模挑战。SparseTSF的核心在于跨周期稀疏预测技术,通过解耦时间序列数据中的周期性与趋势特征来简化预测任务。该技术对原始序列进行下采样处理,聚焦于跨周期趋势预测,在有效提取周期性特征的同时大幅降低模型复杂度与参数量。基于此技术,SparseTSF以不足1000个参数的极简架构,实现了与当前最优模型相当甚至更优的预测性能。代码已开源至:https://github.com/lss-1138/SparseTSF。
10
论文标题:RETHINKING CHANNEL DEPENDENCE FOR MULTI VARIATE TIME SERIES FORECASTING : LEARNING FROM LEADING INDICATORS(ICLR2024)
本文提出:变量间存在局部平稳的超前-滞后关系,即部分滞后变量在短时间窗口内会遵循先行指标的变化规律。为此,本文提出新型方法LIFT,其核心机制为:首先在各时间步高效估计先行指标及其超前步数,继而通过智能设计使滞后变量能够利用先行指标的超前信息。作为插件式架构,LIFT可无缝集成到任意时间序列预测模型中。在六个真实数据集上的实验表明,LIFT使现有SOTA方法的平均预测性能提升5.4%。相关代码已开源至:https://github.com/SJTU-DMTai/LIFT。
11
论文标题:FITS:Modeling Time Series with 10k Parameters(ICLR2024)
本文提出了FITS,FITS基于复数频域插值原理构建,通过频域操作实现时间序列的高效表征与分析。在时间序列预测与异常检测任务中,FITS以仅约10k参数的极简架构达到了与当前最优模型相当的性能表现。这一特性使其特别适用于边缘设备部署,为资源受限环境下的时序数据分析开辟了新路径。相关代码已开源:https://github.com/VEWOXIC/FITS。
12
论文标题:CATS: Enhancing Multivariate Time Series Forecasting by Constructing Auxiliary Time Series as Exogenous Variables(ICML2024)
本文提出构建辅助时间序列(CATS)的方法,其作用类似于二维时间上下文注意力机制,通过从原始时间序列(OTS)生成辅助时间序列(ATS)来有效表征和融合序列间关系以支持预测。ATS的核心设计遵循连续性、稀疏性和变异性原则,并通过不同模块实现。即便采用基础的2层MLP作为核心预测器,CATS仍实现了当前最优性能,与既往多变量模型相比显著降低了复杂度和参数量,成为高效且可迁移的MTSF解决方案。
13
论文标题:An Analysis of Linear Time Series Forecasting Models(ICML2024)
本文对线性模型架构所能表示的函数集进行了分析。通过分析发现,时间序列预测领域中几种流行的线性模型变体在功能上与标准无约束线性回归等价,无法从本质上区分。对每种线性模型变体的模型类别进行了特征描述,证明了每个模型都可以重新解释为对适当扩充后的特征集进行无约束线性回归。因此,在使用均方损失函数时,这些模型能够提供闭式解。实验证据表明,所研究的模型学习到的解几乎相同。最后,通过实验证明,在72%的测试场景中,更简单的闭式解是更优的预测方法。
14
论文标题:CycleNet: Enhancing Time Series Forecasting through Modeling Periodic Patterns(NIPS2024)
本文提出了残差循环预测(RCF)技术,该技术利用可学习的循环周期对序列中固有的周期性模式进行建模,然后对建模周期的残差分量进行预测。将RCF与线性层或浅层MLP结合,形成了本文提出的简单而强大的方法——CycleNet。CycleNet在电力、天气和能源等多个领域实现了先进的预测精度,同时通过减少90%以上的所需参数量,提供了显著的效率优势。此外,作为一种新型即插即用技术,RCF还可以显著提高现有模型(包括PatchTST和iTransformer)的预测精度。源代码可在以下地址获取:https://github.com/ACAT-SCUT/CycleNet。
15
论文标题:Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting(NIPS2024)
本文通过分析和实证表明:分解是遏制模型过度膨胀的关键,同时能在各种数据集上实现一致的优越和稳健结果。值得注意的是,通过将分解与时间序列数据的内在动态相匹配,我们提出的模型优于现有基准,使用的参数比大多数竞争方法少99%以上。通过这项工作,本文旨在通过利用领域特征来释放有限参数集的力量——这适时地提醒我们,在LTSF领域,更大并不总是更好。代码可在https://github.com/JLDeng/SSCNN获取。
16
论文标题:Frequency Adaptive Normalization For Non-stationary Time Series Forecasting(NIPS24)
本文提出一种新的实例归一化方案——频率自适应归一化(FAN),将实例归一化扩展至同时处理动态趋势与季节性模式。利用傅里叶变换识别覆盖大部分非平稳因素的实例主导频率成分,并通过简单MLP模型将输入与输出间的频率成分差异显式建模为预测任务。FAN作为模型无关方法可应用于任意预测主干,在四种常用预测模型上集成FAN作为主干,并在八个基准数据集上评估其预测性能提升。实验表明,FAN实现了7.76%~37.90%的平均MSE改进,展现出显著的性能优势。相关代码已公开。
17
论文标题:SOFTS: Efficient Multivariate Time Series Forecasting with Series-Core Fusion(NIPS24)
本文提出适用于多元时间序列预测的高效MLP模型——序列核心融合时间序列预测器(SOFTS),旨在解决现有方法在捕捉通道相关性时面临的复杂度高或依赖过强等问题。SOFTS引入STar聚合-重分配(STAR)模块,通过集中式策略将所有序列聚合为全局核心表示,再将其分发并与各序列表示融合,有效促进通道交互的同时提升效率,降低对单通道质量的依赖。该模型仅具线性复杂度,却在性能上超越现有先进方法,且STAR模块在不同预测模型中展现出广泛适用性。相关代码已开源至https://github.com/Secilia-Cxy/SOFTS。
18
论文标题:FilterNet: Harnessing Frequency Filters for Time Series Forecasting(NIPS24)
本文提出FilterNet,该网络基于可学习频率滤波器,通过有选择地通过或衰减时间序列信号的某些成分来提取关键的信息性时间模式。在FilterNet中提出了两种可学习滤波器:(i) 普通整形滤波器,采用通用频率核进行信号滤波和时间建模;(ii) 上下文整形滤波器,利用根据其与输入信号的兼容性检查的滤波频率来进行依赖关系学习。FilterNet可以近似替代时间序列领域中广泛采用的线性和注意力映射,同时在处理高频噪声和利用整个频谱方面具有出色能力,与最先进的方法相比,模型在有效性和效率方面均表现出了优越的性能。
19
论文标题:Are Transformers Effective for Time Series Forecasting?(AAAI2024)
本文提出一组极为简单的单层线性模型 LTSF-Linear 用于对比实验。在 9 个真实数据集上的结果显示,该模型竟在所有场景下显著优于现有复杂的 Transformer 类 LTSF 模型。通过系统性分析模型设计要素对时序关系提取能力的影响,期望这一反常识发现能为 LTSF 领域开辟新研究方向,并呼吁重新审视 Transformer 在异常检测等其他时序分析任务中的适用性。相关代码已开源至:https://github.com/cure-lab/LTSFLinear。
20
论文标题:OneNet- Enhancing Time Series Forecasting Models under Concept Drift by Online Ensembling(NIPS2023)
本文提出了在线集成网络(OneNet)。该模型动态更新并结合两种模型,其中一种专注于对时间维度的依赖关系进行建模,另一种则关注跨变量依赖关系。将基于强化学习的方法融入传统的在线凸规划框架中,允许以动态调整的权重对两种模型进行线性组合。OneNet 解决了经典在线学习方法在适应概念漂移时往往速度较慢的主要缺点。实证结果表明,与最先进的(SOTA)方法相比,OneNet 将在线预测误差降低了 50% 以上。代码可在https://github.com/yfzhang114/OneNet获取。
21
论文标题:Frequency-domain MLPs are More Effective Learners in Time Series Forecasting(NIPS2023)
本文探索在频域应用MLP的新方向,发现频域MLP有全局视角(易捕捉信号全局依赖)和能量压缩(聚焦关键频率分量)两大优势。进而提出FreTS架构,该架构包含将时域信号转频域复数的域转换阶段,以及用重新设计的MLP学习频率分量实部和虚部的频率学习阶段,通过序列间和序列内操作促进通道与时间依赖学习。13个真实数据集实验显示,FreTS性能优于现有先进方法,代码已开源。