JaonLiu
JaonLiu
Just the same dataset with raw paper,I think maybe better
@codertimo http://timdettmers.com/2018/10/17/tpus-vs-gpus-for-transformers-bert/
现在的服务框架似乎对高并发不够友好? num_workers设置决定了并发数量吧 @hanxiao
Any plan to add transform function? @nmerrill67 As we know the PCA in `from sklearn.decomposition import PCA` has the `transform` function indeed. Looking forward to this function~
@Determined22 说词向量的随机初始化,和预训练的词向量相比较没有显著提升。那是否说明在整个LSTM+CRF过程,也学习了词向量了?所以随机初始化与否在最终结果性能没有显著提升?可以这样理解?
@duterscmy 那现在上传的这个版本其实仅利用到了BERT的特征? 现在上传的这个版本features数据如下:  (1)这种情况,怎么写` X.append()`? (2)在生成负样本时,这种随机数生成的方式为啥能够确保0.05的负样本比例? 谢谢~
> @MrRace 我是直接使用的`X.append([features[2]])` 你的feature也是类似的结构吗?
@duterscmy 那在`SaveFilterCandiT`中的`new_features = features[0:2]+[features[9][0][1]]` 需要改成: `new_features = features` ? 还是?
``` 单实体问题中,候选答案可召回的的比例为:0.730 候选答案能覆盖标准查询路径的比例为:0.461 在验证集上逻辑回归筛选后top10 召回率为0.72 单实体问题中,候选答案可召回的的比例为:0.731 候选答案能覆盖标准查询路径的比例为:0.560 ``` @ZainZhou 你的呢?
> @MrRace 我跑的tuple_filter的比你这个低很多,因为我前面实体抽取的召回率就偏低,所以才问你entity_filter.py你可以召回多少实体 在`entity_filter.py`上, `在验证集上逻辑回归top5筛选后,所有问题实体召回率为0.774,单实体问题实体召回率0.820` 训练集的话,大概是0.8左右。