SIGIR2020_peterrec
SIGIR2020_peterrec copied to clipboard
Universal User Representation Pre-training for Cross-domain Recommendation and User Profiling
hello博士您好,我这边使用coldrec2的数据在复现的模型上测试,预训练阶段mrr@5 = 0.0407; 微调阶段mrr@5 = 0.3044,基本两个epoch就停止收敛了; 然后使用微调的模型对预训练的数据进行top-k预测,发现不管输入啥top-k的结果都是一样的,如下所示几个seq的top-50结果:  想请教一下,这个可能是什么原因造成的呢,毕竟微调的指标已经接近论文中的0.33了; 非常感谢。
在ColdRec2数据集上pretrain,收敛的时候正常的HR@5应该是多少? 'mrr_5:', 0.030770833333333344, 'hit_5:', 0.05375, 'ndcg_5:', 0.03643626106347057 这个数值范围是不是预训练不成功?
请问,有人复现了 causal serial 在 LifeEST上的效果没?我尝试了各种方法都不得行。 PS:我用pytroch重写了PeterRec_noncau_parallel_classifier.py这个文件,只不过是negative sample 设置为99
Lifestatus: single, married, pregnant, child rearing... 请问剩下两个类别是什么? 谢谢回复。
Hi Prof Yuan~ In the evaluation part of [PeterRec_cau_serial.py](https://github.com/fajieyuan/SIGIR2020_peterrec/blob/master/PeterRec_cau_serial.py) line 243, the rank of the retrieved items is given by rank = predictmap.get(negtive_samples) where negtive_samples is 'the number of negative...
Hi Prof Yuan~ Do you have any suggestions on how to deploy the finetuned model for online applications for best efficiency and accuracy?
hello, 问下,下游的年龄性别分类模型是用 PeterRec_noncau_parallel_classifier.py 跑的吗 ?
你好,我用 Tesla P40 单卡来跑咱们的数据集,用到的参数都是论文里的设置 `model_para = { 'item_size': len(items), 'dilated_channels': 256, 'dilations': [1, 2, 4, 8, 1, 2, 4, 8, 1, 2, 4, 8, 1, 2, 4, 8], 'kernel_size': 3,...