pss-bppp

Results 8 comments of pss-bppp

非常感谢您的回复。但是您提到的这个问题我之前注意到了,而且已经改过了。但是还是不行。会报我之前报告的那个错误。

您提供的源代码里,model_combine.py文件里面第115行好像有语法错误。我是去掉了interval=None,将其改成了: attout_item_cont, alph = multi_attention_layer(seq_item_cont, seq_content, interval=seq_active_time, click_time=click_t, edim1=self.hidden_size*2, edim2=self.hidden_size, edim3=self.time_hidden_size, scope="multi_attention", hidden_size=self.hidden_size, stddev=self.stddev) 是不是这里有问题? 抱歉,我平时使用pytorch较多,对于tf不是很熟悉。

所以您认为问题出在哪里?请问您使用的python版本和tf版本是多少呢?

非常感谢!目前模型已经开始训练了。再次感谢。 但是训练起来以后,模型的损失函数值是NaN。Epoch 0: NaN error! 我修改了batch_size和学习率,依然有这个问题。 并且我在计算损失函数那里尝试了neg_feedback = 0。结果依然是NaN error。 同时我发现会输出:size of seq_content (?, ?, 250) size of seq_publish_t (?, ?, 320) size of click_t (?, 128) size of attout_item_cont...

我再试一试,在debug过程中我发现无论batch_size设为多大,第一个batch计算出的损失值(代码中crt_loss的值)都是正常的。第二个batch计算出的值就会有nan,第三个batch计算出的值就全部是nan。 另外训练过程中GPU占有率为0,GPU没有工作。

太好了,目前在globo数据集上已经可以正常训练了。暂时不用麻烦您了。再次感谢! 感谢您负责任的科研态度。为您的工作点赞。

您好,再次打扰,请问可否提供下adressa数据上的新闻标题和新闻标题embedding?非常感谢。 即adressa/articles_titles.pkl和adressa/articles_embeddings.pkl?

Thank you very much。谢谢您。