wolaile

Results 4 comments of wolaile

> 请问无论怎么调参,Informer模型在测试集上的预测性能都不如普通LSTM可能是什么情况啊? > > ![image](https://user-images.githubusercontent.com/113841361/198875761-e5b3ead8-9cb6-436d-a12d-fddb8ad652e2.png) ![image](https://user-images.githubusercontent.com/113841361/198875765-e8d9fc87-c8c9-418e-848c-7e05341eb3d8.png) 反归一化后的mse,mae,mape对比: LSTM:3.294,1.466,3.880 Informer: 4.708,1.743,4.925 请问您方便分享一下informer与LSTm对比的代码? 将非常感谢 邮箱:[email protected]

> 请问您方便分享一下informer与LSTm对比的代码? 将非常感谢 邮箱:[email protected]

我觉得 可能是你的数据集的关系 原文要求特征之间的关联性要强,如果关联性弱,文中的ProbSparse Self-attention 起不到太好的作用,更会因为后面distill导致特征丢失严重,不如普通的LSTM 所以这个只能用来试一试自己的数据集效果 如果不是常规的数据集,效果会好一点

> 我觉得 可能是你的数据集的关系 原文要求特征之间的关联性要强,如果关联性弱,文中的ProbSparse Self-attention 起不到太好的作用,更会因为后面distill导致特征丢失严重,不如普通的LSTM 所以这个只能用来试一试自己的数据集效果 如果不是常规的数据集,效果会好一点