DoubleYing

Results 9 issues of DoubleYing

首先,感谢能够有这么完整的代码和说明文档。对我帮助很大。 但是仍存在一些问题: 1.对于空间输入数据,采样率为10。对于运动输入数据,光流数据的采样率是多少? 情况1.是根据采样图像的后10帧得到的光流volume吗? 情况2.还是采样得到的帧,每10帧计算一个光流volume? 2.训练时,对运动空间,只采样3个帧;对运动空间只采样1个光流堆。那为何最初的数据处理要存储这么多的数据呢? 3.测试,对每个视频采样19帧,是为了保有足够的帧用于10个堆栈运动流中的测试。那么是否推测问题1中,光流的采样为情况2. 希望您有空能解答一下我的疑问。感谢。

从2_gen_dien_input.py 和 2_gen_dsin_input.py 这两个文件中,看到dien生成的数据是选择第1个session中最新的数据;而dsin生成的数据是把最新的session中最新数据放至sess_0。 所以,这里我有两个问题: 1.dsin和dien本身输入的数据不同,是否因为这个会导致实验结果有差异 2.dsin是将最新数据放在sess_0,因此在段间兴趣提取层,实际上是学习了一个从现在到过去的演化过程(当然,您论文中用的是bi-lstm,是双向学习)。那如果是换个顺序存储sess数据,那结果是否会有变化。 嗯,上面这些只是一些想法,还没有进行验证。 或许,您能帮忙解释一下,当初您为什么采用这种策略生成输入数据。

想问一下您,在taobao ad数据集上,最终的AUC是能够得到论文中结果的嘛? 因为我按照您的这个流程走下来,使用了5%的ad数据集(受硬件环境限制),但是最后AUC只有0.5+, 我就很怀疑是我哪里没有弄对吗?

bert4rec在我们的场景下使用的时候,预测速度非常慢。 这个原因是不是拿了所有物料做softmax导致的。 但是作为cloze任务,这个又无法避免,想问下有什么解决办法吗

## 相关章节 CH17 ## 相关主题 - [ lsa] 代码 ## 问题描述 首先,非常感谢能无私开源自己的代码,对我们的学习真的很有帮助。 在lsa的fit()方法中,这个函数的作用是将x->x_trainsform。但是我不太理解为什么x_transform是U*s,因为U本身已经是话题向量空间。s*vh代表文本在话题向量空间中的表示。那么这里x_transform的含义是什么? 而component返回的则是vh,这个component的意义又是什么? 还有explained_variance是计算的x_transform的方差,这个的意义又是什么

论文中,pos模型和pctr模型的sigmoid结果进行相乘得到bctr。 但在在您的PositionBiasAwareLearningFrameworkModel 实现中,是把pctr结果送到pos模型中进行训练? 是不是跟论文中所说的不一样? 另外再问一下torch方面简单的问题,output = self.pos_model((pctr_out, pos_inputs)) 这个pos_model的输入,为啥是一个tuple?

在u2u2i的过程中,没有看到找相似user的过程。或者说, val df_user_prefer2 = df_user_prefer1.withColumn("score", col("pref") * col("similar") * (lit(1) / log(col("sum_item") * hot_item_regular + math.E))).select("useridJ", "itemid", "score") 这一行,为什么可以直接去掉useridI这一项呢?

**Describe the question(问题描述)** 直接运行run_din.py,运行epoch设置为10,运行了大概6次后,报以下错误。大概是IteratorResource does not exist,但是我不知道为啥会出现这个问题。可不可以请大佬指点一下。 `Train on 1 samples, validate on 2 samples Epoch 1/10 C:\Software\Anaconda3\lib\site-packages\tensorflow_core\python\framework\indexed_slices.py:424: UserWarning: Converting sparse IndexedSlices to a dense Tensor of unknown shape. This...

question

看到原paper的pytorch的实现里算g的时候用了detach。 https://github.com/libuyu/mmdetection/blob/23f86276b6e135415a411aa229e16a9981fac907/mmdet/models/losses/ghm_loss.py#L73 g = torch.abs(pred.sigmoid().detach() - target) 想问一下在tensorflow里是不是要用对应的tf.stop_gradient?