DoubleYing

Results 8 comments of DoubleYing

I train the model with pretrained ResNet152, but I got the accuary only 30+%, I think it's too low, but I don't know how to imporve it. I use the...

yes, I have changed the classes number, and now I'm considering to change a way to extract flow. If I get a good result later, I will note here. Thanks...

嗯,感谢您的回复,我增大了数据集,使用了25%的ad数据,结果能达到0.6+了。 但是,我仍然有一个问题,就是在Session Interest Interacting Layer,您的论文中是用了Bi-LSTM来做的,我觉得换成其他模块,比如self-attention应该也能达到同样的效果吧,但是好像结果并不理想,在训练过程中loss持续升高,这让我很费解。 或许您能给我一些建议来解决这个问题吗?

> > 嗯,感谢您的回复,我增大了数据集,使用了25%的ad数据,结果能达到0.6+了。 > > 但是,我仍然有一个问题,就是在Session Interest Interacting Layer,您的论文中是用了Bi-LSTM来做的,我觉得换成其他模块,比如self-attention应该也能达到同样的效果吧,但是好像结果并不理想,在训练过程中loss持续升高,这让我很费解。 > > 或许您能给我一些建议来解决这个问题吗? > > 不好意思来晚了。。 > 我自己实验的时候换成 self-attention 会略跌一点,而且每个模块(Bi-LSTM or CNN or self-attention)应该有自己的特殊作用,主要看你想做什么。我们想捕捉用户的 session interest 的渐进和演化,那似乎用 Bi-LSTM 会更贴切这个目标;想捕捉用户 session interest...

嗯,好像看懂了,谢谢您的回复

嗯,这个问题好奇怪的,以上错误是我在windows 上运行的结果,但是我放到linux服务器上运行就没有问题了。。。。 但以上错误发生的原因是啥呢。。。。

如果要用到item的图片特征,那它肯定是dense_feat, 这个肯定不能离散化吧成sparse feature啊。