Results 6 comments of shexuan

请问怎么运行啊 sudo dpkg -i *deb 后不知道怎么运行软件啊

@zd200572 https://nanomirrors.tuna.tsinghua.edu.cn/anaconda/cloud/bioconda/ 这个地址是错误的 刚刚看了下,还是跟原来的在一起 https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/bioconda/linux-64/

> 王喆老师,请问下,我想参考张俊林老师的博客[推荐系统召回四模型之:全能的FM模型 ](https://zhuanlan.zhihu.com/p/58160982)做一个FM的embedding召回。如果我想把用户看过的电影序列输入FM中,每个电影是否应该同属于一个field呢? > > 我的理解是电影之间似乎不需要什么交互,因此用户看过的所有电影作为特征输入是应该标注成为一个field。 > > 另一个就是电影的不同类别(gener)特征,也即动作,悬疑,科幻这种,也是序列,但是这种应该是可以有特征交互的,所以输入FM中的时候应该标注为不同Field。 > > 不知这个理解是否正确? 我在您的DeepFM中看到的似乎并不是所有特征都参与了交互,仅movie_ind_col, user_ind_col, user_genre_ind_col, item_genre_ind_col几个参与了一阶交互,且user_genre_ind_col有多个的话仅用到了一个,请问这里是为了简单处理还是说就是不需要那么多特征参与到特征交互中?

看样子似乎是网络问题?重启试试

> 没有做过这类的实验,谈一下我的理解吧,不一定对。 我理解simcse的思路是为了让分布更加均匀,这里最后分成3类又会约束分布,要这样做的话,可以把simcse的参数冻住,只训练mlp的参数试试。 然后[cls]sentence1[sep]sentence2[sep] 本身也是一种思路。可以参考一下苏神的文章:苏剑林. (Jan. 06, 2022). 《CoSENT(一):比Sentence-BERT更有效的句向量方案 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/8847 其实[cls]sentence1[sep]sentence2[sep]这已经是基于交互式的模型了,模型能学到两个语句的交互信息。而simcse、cosent、whitening这些其实都没有用到交互信息,都是单句话直接进模型出embedding的。所以[cls]sentence1[sep]sentence2[sep]这种效果高几个点是非常正常的结果

> cos_sim 那一步函数里面有做归一化 , 不用自己再做一次 我算了下,确实是的。不过你这个有监督loss是有问题的,可以看看这个 loss https://www.jianshu.com/p/d73e499ec859 。这个loss我跟苏剑林的git的loss比了下,结果是相同的 ``` # 苏剑林 import numpy as np import scipy.stats from bert4keras.backend import keras, K, search_layer import tensorflow as tf def su_sup_loss(y_true,...