DoubleYing
DoubleYing
I train the model with pretrained ResNet152, but I got the accuary only 30+%, I think it's too low, but I don't know how to imporve it. I use the...
yes, I have changed the classes number, and now I'm considering to change a way to extract flow. If I get a good result later, I will note here. Thanks...
您好,请问您拿到预训练模型了吗?能否发我一份?邮箱:[email protected]
嗯,感谢您的回复,我增大了数据集,使用了25%的ad数据,结果能达到0.6+了。 但是,我仍然有一个问题,就是在Session Interest Interacting Layer,您的论文中是用了Bi-LSTM来做的,我觉得换成其他模块,比如self-attention应该也能达到同样的效果吧,但是好像结果并不理想,在训练过程中loss持续升高,这让我很费解。 或许您能给我一些建议来解决这个问题吗?
> > 嗯,感谢您的回复,我增大了数据集,使用了25%的ad数据,结果能达到0.6+了。 > > 但是,我仍然有一个问题,就是在Session Interest Interacting Layer,您的论文中是用了Bi-LSTM来做的,我觉得换成其他模块,比如self-attention应该也能达到同样的效果吧,但是好像结果并不理想,在训练过程中loss持续升高,这让我很费解。 > > 或许您能给我一些建议来解决这个问题吗? > > 不好意思来晚了。。 > 我自己实验的时候换成 self-attention 会略跌一点,而且每个模块(Bi-LSTM or CNN or self-attention)应该有自己的特殊作用,主要看你想做什么。我们想捕捉用户的 session interest 的渐进和演化,那似乎用 Bi-LSTM 会更贴切这个目标;想捕捉用户 session interest...
嗯,好像看懂了,谢谢您的回复
嗯,这个问题好奇怪的,以上错误是我在windows 上运行的结果,但是我放到linux服务器上运行就没有问题了。。。。 但以上错误发生的原因是啥呢。。。。
如果要用到item的图片特征,那它肯定是dense_feat, 这个肯定不能离散化吧成sparse feature啊。