22 lines
2.3 KiB
Plaintext
22 lines
2.3 KiB
Plaintext
|
NHITS--一种基于神经网络的时间序列预测模型,利用了门控线性单元(GLU)来处理序列数据。
|
|||
|
Informer--一种高效的时间序列预测模型,特别设计用于长序列数据,通过减少自注意力机制中的计算复杂度。
|
|||
|
LSTM--一种经典的循环神经网络(RNN)变体,能够学习长期依赖关系,广泛应用于序列学习任务。
|
|||
|
iTransformer--结合了注意力机制和循环结构的模型,旨在提高序列到序列任务的性能。
|
|||
|
TSMixer--一种混合模型,结合了传统统计方法和深度学习技术,用于时间序列预测。
|
|||
|
TSMixerx--是TSMixer的扩展或改进版本,具体细节可能依赖于特定的研究或应用领域。
|
|||
|
PatchTST--基于Transformer架构的时间序列分析模型,将序列分割成多个“patch”进行处理。
|
|||
|
RNN--一种用于处理序列数据的基本神经网络模型,可以记住先前的信息并应用于后续输入。
|
|||
|
GRU--RNN的一种变体,比LSTM更简单但同样有效,用于处理序列数据。
|
|||
|
TCN--使用一维卷积层处理时间序列数据,能够捕捉局部和全局的依赖关系。
|
|||
|
DeepAR--亚马逊开发的基于RNN的时间序列预测模型,使用自动回归框架,可以处理多变量序列。
|
|||
|
BiTCN--双向TCN,结合了双向信息流以增强模型对序列的理解。
|
|||
|
DilatedRNN--利用膨胀卷积的RNN变体,能够扩大感受野而不增加参数数量。
|
|||
|
MLP--一种基本的前馈神经网络,尽管在处理序列数据时不是最优选择,但在某些场景下仍有效。
|
|||
|
DLinear--一个轻量级的模型,专门用于时间序列预测,避免了复杂的神经网络结构。
|
|||
|
NLinear--类似于DLinear,是一个简单线性模型的扩展,用于时间序列预测。
|
|||
|
TFT--一种高度可配置的Transformer模型,专为处理具有多个时间序列的复杂问题而设计。
|
|||
|
FEDformer--结合了频域和时域特征的Transformer模型,提高了时间序列预测的精度。
|
|||
|
StemGNN--一种基于图神经网络(GNN)的方法,用于处理具有图形结构的时间序列数据。
|
|||
|
MLPMultivariate--基于多层感知机(MLP)的模型,用于处理多变量时间序列预测。
|
|||
|
TiDE--一种基于深度学习的时间序列异常检测模型。
|
|||
|
DeepNPT--深度神经网络时间序列预测技术,可能是一种特定的模型或框架,用于时间序列分析。
|