Chong Chen

Results 68 comments of Chong Chen

> > 我不太清楚你是怎么把loss跑成nan的,或许你可以试试https://github.com/chenchongthu/ENMF 的代码,EHCF_Sin和ENMF是一致的。 > > 关于代码核心,我们不仅是做Positive rating的User-Item Matrix拟合,而是在全样本数据上做非采样学习,可以看一下论文里的推导。 > > ENMF我这边是可以跑出来,但是结果跟report的差比较多。 因为你用的数据不一样 https://github.com/chenchongthu/ENMF/issues/9

cuvk是权重,k+表示正样例的权重,k-表示负样例的权重。论文里面是以一个比较general的方式来写的,实际在现有工作中为了减少调参的难度,一般会将正样例cuv+的值设为‘1’,而只调整cuv-的值。对于cuv-的值的设置又存在多种方法,比如最简单的将cuv-设为一个固定的在0-1之间的值(如之前的WMF的工作),或者是将cuv-计算为一个跟商品popularity相关的值(cv-,如之前的eals)。

如果是对传统单行为推荐场景感兴趣的话,可以参考我们写的更详细的期刊论文[Efficient Neural Matrix Factorization without Sampling for Recommendation](https://github.com/chenchongthu/ENMF)

很遗憾我们这也没有MBGCN的代码,您可以尝试联系一下原作者看看。

Ok,请问邮箱是?

不客气~已经发送了,请查收。

> 能不能麻烦您也给我发一份一样的 可以,请问邮箱是?

以上已发送

这个问题很好,我个人的考虑是这样的: 在目前的优化框架下,优化器(如SGD,Adagrad)的目的是降低loss的数值而不是直接优化我们想要的目标(推荐的效果),那么为了得到好的模型效果,我们就要去想办法让”loss数值下降“与”模型表现上升“尽量保持一致。假设我们将每个子任务权重设为变量,那么优化器为了降低loss的数值,最简单的方法就是更改直接控制loss的变量,因为该变量的梯度是最大的。这样一来,”loss数值下降“与”模型表现上升“的一致性便会变差。如果感兴趣的话可以尝试一下,得到的结果肯定是会变差很多的。 其实上述问题也是现阶段多目标优化和多任务学习研究的一个重要问题,当然这篇文章因为重点不在这里,就没有进行过深入的设计和讨论。我个人认为一个可行的改进方法是可以引入强化学习框架来更直接的优化我们的模型效果,并反馈到loss下降这个数学表示上。