Multi-Component-Graph-Convolutional-Collaborative-Filtering icon indicating copy to clipboard operation
Multi-Component-Graph-Convolutional-Collaborative-Filtering copied to clipboard

data issue

Open senllh opened this issue 5 years ago • 3 comments

你好,我想问一下在movielens文件中有 u1, u2,u3...等多个文件,这些不同的文件 (应该就是不同的Component) 分别代表什么意思呢?它们是如何产生的呢?yelp 和 amazon文件是不是还有多个文件没有展示出来?

senllh avatar Sep 29 '20 03:09 senllh

我上传的movielens dataset是常用的原始数据集,u1、u2、u3、u4和u5是五折交叉验证的划分。而在我们的实验中并没有用到这些数据,model中实际使用ua和ub文件进行随机划分,对于baselines也使用相同的划分进行比较,详细数据处理过程可参照preprocess.py。

不同component的输入是相同的,利用正则等约束使其分别表示不同aspect的语义,有些许解耦的思想在。

RuijiaW avatar Oct 04 '20 10:10 RuijiaW

谢谢你的回答。不好意思,我仍然难以理解不同aspect的语义是如何产生的。有使用u.user 和 u.item文件吗?能麻烦您详细阐述一下生成过程吗? 或者分享相关代码。我对这篇论文十分感兴趣,多有打扰,谢谢您的帮助。

senllh avatar Oct 04 '20 11:10 senllh

谢谢你的回答。不好意思,我仍然难以理解不同aspect的语义是如何产生的。有使用u.user 和 u.item文件吗?能麻烦您详细阐述一下生成过程吗? 或者分享相关代码。我对这篇论文十分感兴趣,多有打扰,谢谢您的帮助。

感谢您的关注,十分抱歉,回复晚了。

将user和item投影至不同space,每一个space对应于某种aspect的语义。换句话说,这种过程可以理解为multi-head,与multi-head的不同之处在于我们显式约束了space的差异,并通过space间的attention机制得到user的finer-grained preference。

我们实验中并未使用u.user 和 u.item文件,使用的是ua.base和ua.test进行8/2随机划分,并将处理后的模型输入存储至_allData.p中。该数据处理过程可以参考/datasets/yelp/preprocess.py。

RuijiaW avatar Nov 22 '20 13:11 RuijiaW