TL;DR: 港科广&华为提出 FactoST 系列,首创"先练时间、再补空间"的因子化时空基础模型范式,破解传统联合预训练的"负迁移"困局。v2版本彻底升级为 Encoder-Only 架构,实现100%预训练权重全转移与任意长度预测,并引入概率分位数预测量化不确定性。在少样本场景下,相比SOTA模型最高降低46.4% 误差,推理速度提升68% ,相关技术已在电力、航空、能源等业务场景落地验证,首次让时空大模型真正"快准稳"。
本文由香港科技大学(广州)、华为2012实验室、华东师范大学、北京大学联合出品
交通流量、气象变化、电网负荷、空气质量……这些时空(Spatio-Temporal, ST)数据不仅记录着"何时"的变化,更蕴含着"何地"的关联。传统方法(STGNN)针对每个特定数据集单独训练,就像"一个师傅只教一本书",难以应对跨城市、跨领域的泛化需求。
近年来,时空基础模型(STFMs)应运而生,试图通过海量数据预训练实现"一次学习,到处可用"。然而,现有方案大多采用联合时空预训练(Joint ST Pretraining)——同时建模空间图结构和时间序列。这种"眉毛胡子一把抓"的做法带来了严峻挑战:

关键洞察:强行让模型在预训练阶段"记住"所有可能的空间结构,不仅计算昂贵,反而会因拓扑冲突导致负迁移(Negative Transfer)。

针对上述矛盾,团队提出 "先时间、后空间"的两阶段因子化范式 FactoST系列通过 "时间预训练+空间适配"的因子化思想 ,成功破解了时空基础模型"大而全却不好用"的困局:

目标:学习跨域通用的"时间常识"(周期、趋势、多频波动)
目标:轻量级注入域特定的空间感知

在NeurIPS 2025(v1)的基础上,团队于Arxiv 2026推出FactoST-v2,实现了架构层面的关键跃迁:

维度 | FactoST v1 (NeurIPS) | FactoST v2 (Arxiv) | 升级意义 |
|---|---|---|---|
架构 | Encoder-Decoder(固定长度) | Encoder-Only(任意长度) | 支持可变输入输出,100%权重迁移 |
预测 | 确定性点估计 | 概率分位数预测 | 输出置信区间,支持不确定性量化 |
适配器 | 层次域对齐(HDA) | 域特定提示对齐(DSPA) | 更轻量、更直接的域适应 |
预训练任务 | 混合(重建+预测) | 纯预测(Pinball Loss) | 消除任务冗余,优化目标更纯粹 |
位置编码 | 正余弦位置编码 | p-RoPE(部分旋转) | 高频部分建模顺序,低频保留语义 |

关键创新详解:
在8个标准时空数据集(PEMS、METR-LA、ETTh2等)上,FactoST系列展现出卓越性能:

image.png


将STA适配器"即插即用"到PatchTST(纯时间模型)上,显著提升其空间建模能力,证明该适配器与具体骨干网络无关,具有广泛适用性。





FactoST-v2实现了高精度、低参数、低延迟的帕累托最优:

FactoST系列通过"时间预训练+空间适配"的因子化思想,成功破解了时空基础模型"大而全却不好用"的困局:
✅ 理论价值:揭示时空模式的不对称性规律——通用性蕴含于时间维度,特异性根植于空间维度,为时空智能领域提供全新设计范式 ✅ 实用价值:通过阶段级解耦设计实现跨域泛化,模型轻量可插拔、资源消耗低,具备极强的二次开发与拓展性
未来方向:团队正探索如何融入大语言模型(LLM)进行开放世界的空间泛化,以及如何处理动态变化的城市拓扑结构。FactoST-v2的代码已开源,期待与社区共同推动时空AI的民主化!
@inproceedings{zhonglearning,
title={Learning to Factorize Spatio-Temporal Foundation Models},
author={Zhong, Siru and Qiu, Junjie and Wu, Yangyu and Zou, Xingchen and Rao, Zhongwen and Yang, Bin and Guo, Chenjuan and Xu, Hao and Liang, Yuxuan},
booktitle={The Thirty-ninth Annual Conference on Neural Information Processing Systems}
}
@article{zhong2026learning,
title={Learning to Factorize and Adapt: A Versatile Approach Toward Universal Spatio-Temporal Foundation Models},
author={Zhong, Siru and Qiu, Junjie and Wu, Yangyu and Liu, Yiqiu and He, Yuanpeng and Rao, Zhongwen and Yang, Bin and Guo, Chenjuan and Xu, Hao and Liang, Yuxuan},
journal={arXiv preprint arXiv:2601.12083},
year={2026}
}
NeurIPS 2025 | ST-SSDL:我们如何让时空预测模型学会“偏差建模”?
NeurIPS 2025 | 时空数据(Spatial-temporal)论文总结[上]
NeurIPS 2025 | 时空数据(Spatial-temporal)论文总结[下]
如果觉得有帮助还请分享,在看,点赞