我有一个大约每15分钟就有80.000次观测的数据。假设季节参数m为96,因为每24h重复一次。当我在我的auto_arima算法中插入这些信息时,需要很长时间(几个小时)才能发出以下错误消息:
MemoryError: Unable to allocate 5.50 GiB for an array with shape (99, 99, 75361) and data type float64我使用的代码:
stepwise_fit = auto_arima(df['Hges'], seasonal=True, m=96, stepwise=True,
stationary=True, trace=True)
print(stepwise_fit.summary())我试着重采样到每小时的值,将数据量和m因子减少到24,但我的计算机仍然无法计算结果。
如何在处理大数据时用auto_arima找到加权因子?
发布于 2020-07-08 22:58:08
我不记得我读到这篇文章的确切来源,但是auto.arima和pmdarima都没有真正优化到缩放,这可能解释了您所面临的问题。
但是,关于您的问题还有一些更重要的事情要注意:对于每15分钟的80K数据点,ARIMA可能不是最佳的用例模型类型:
发布于 2022-03-04 19:00:17
pmdarima不是很好的缩放。你应该试试autoarima of 状态预测。它是用numba编译成高效的机器代码。
https://stackoverflow.com/questions/63438979
复制相似问题