wolaile
wolaile
> 请问无论怎么调参,Informer模型在测试集上的预测性能都不如普通LSTM可能是什么情况啊? > >   反归一化后的mse,mae,mape对比: LSTM:3.294,1.466,3.880 Informer: 4.708,1.743,4.925 请问您方便分享一下informer与LSTm对比的代码? 将非常感谢 邮箱:[email protected]
> 请问您方便分享一下informer与LSTm对比的代码? 将非常感谢 邮箱:[email protected]
我觉得 可能是你的数据集的关系 原文要求特征之间的关联性要强,如果关联性弱,文中的ProbSparse Self-attention 起不到太好的作用,更会因为后面distill导致特征丢失严重,不如普通的LSTM 所以这个只能用来试一试自己的数据集效果 如果不是常规的数据集,效果会好一点
> 我觉得 可能是你的数据集的关系 原文要求特征之间的关联性要强,如果关联性弱,文中的ProbSparse Self-attention 起不到太好的作用,更会因为后面distill导致特征丢失严重,不如普通的LSTM 所以这个只能用来试一试自己的数据集效果 如果不是常规的数据集,效果会好一点