jackyhawk

Results 10 comments of jackyhawk

> the first part is use's feature and the second part is item's feature. 多谢。这个看程序,好像是 每一部分中 "-" 分隔的 第一个field,必须分别是 userid和itemid,是吗

另外,paddlerec的 群 还有效吗?貌似申请了,一直没通过,多谢

> > 另外,paddlerec的 群 还有效吗?貌似申请了,一直没通过,多谢 > > 还有效的,您这边重新加一下微信小助手微信号:wxid_0xksppzk5p7f22,我们帮您快速通过审核 这个微信号好像搜不到,我扫描二维码加了,帮忙通过下,多谢

比如这个的PaddleRec\models\recall\mind 里边 infer.py 从faiss中查出来后,就直接按照索引(编码)去和 validid 去比较了。 特意查了下,在原始数据中,itemid不是连续严格的0~n-1的编码, 这样子是不是就有一些出入? 多谢 ni = user_embs.shape[1] user_embs = np.reshape(user_embs, [-1, user_embs.shape[-1]]) **D, I = faiss_index.search(user_embs, args.top_n)** for i, iid_list in enumerate(target_items): recall = 0...

麻烦个问题; PaddleRec/models/recall/mind 这个里边的infer.py,这里的b就是faiss中要灌入的索引,对吧? b就是0~item_num-1 对应的embedding,这样说对吗? 从faiss中查出来的I,是具体item的 索引(序号编码),我查了下,这个demo中的 bookid(itemid)是从1开始的,这样子 和target对应(match)的时候,是否要把 I中查出的结果(序号) 进行+1操作,因为bookid是从1开始的?多谢

for sse, it would be align=4 for sse; and if it works as xlearn, "int align = kAlign * aux_size;" it would skip some part if k is larger than...

确实 多个 varlen_sparse_feat / sparse_feat 共用同一个 embedding_name,会被初始化多次,不过只有最后一个的vocabulary_size, feat.embedding_dim 有效