zhaijy

Results 11 issues of zhaijy

### 预期情况 无法用vscode通过python访问wikidata ### 实际情况 校园网情况下网页可以访问wikidata.org,但是python端无法爬取。用手机开热点,都可以用。 ### 复现方法 1 ### 日志信息 1 ### 额外信息 _No response_ ### 我确认已更新至最新版本 - [X] 是 ### 我确认已查询历史issues - [X] 是

bug

本人刚接触知识图谱推荐,请问有处理数据集的代码吗,或相关链接。谢谢啦

你好,关于SASrec的实现,最后的输出是BxH,也就是只用了最后一个item计算loss吗,不应该是seq2seq吗? output = trm_output[-1] output = self.gather_indexes(output, item_seq_len - 1) return output # [B H]

enhancement

你好,如何获得.ent_feature和.rel_feature呢,GRU4RecKG需要这些文件,文件内容是什么格式呢?如何获取?

question

![image](https://github.com/kongds/Prompt-BERT/assets/56312792/2a1d21ea-0e1c-40a4-a819-ee6d439410a8)

大佬,在tuning prompt only时候,main.py的第79行代码执行后,模型token embedding会产生梯度,这个时候是更新了item, user, token embedding三个东西吧?

@amirmk89 , Only the information in the paper, the experimental effect of NTU RGB+D data set is not good, can you share more detailed experimental settings?

你好,我按照默认参数复现了一下Scientific数据集,发现了一些问题: 1. 从头开始训练要比pretrain-finetune效果更好。 2. 预训练后,finetune部分参数要比finetune所有参数好,说明finetune会过拟合。 ![image](https://github.com/RUCAIBox/UniSRec/assets/56312792/9172c81b-c9ff-4299-aa2c-4497c8599828) 又仔细研究了一下,发现pretrain之后,固定了SASrec,所以才会出现pretrain对比任务对下游任务影响较大。模型参数很小,这样做合理吗? 如果训练bert,我认为预训练是必要的,但是不需要训练bert,参数量很小,从头训练效果更好,预训练是不是多此一举? ![image](https://github.com/RUCAIBox/UniSRec/assets/56312792/648da169-9684-4345-b4cf-a40807583b3a)

Hello. I have encountered an issue with reproducing the results. I replicated two methods, Recformer and UniSRec, using default parameters. The results for Recformer seem reasonable, but the performance of...