DataTerminatorX

Results 13 comments of DataTerminatorX

same here. changed many tensorflow versions( from 0.12.0 to 1.3.0) still unsolved

I agree with what @chanansh said. I think the function of **output feature naming** will be very useful for feature selection and feature union. As far as I know, `pandas.get_dummies()`...

我们试过 1:1 1:3 1:5 1:10 之类

其实最后是个排序问题,从一堆Q中找最match的Q,所以单个pair对儿的准确率并不是最重要的

Thx for pointing out the typo. Parsing keyword masks is actually implemeted in `run_classifier.py`, not `extract_feature.py` . I've updated the readme file. Also, I've uploaded a new script called `data/convert_to_bert_keyword.py`...

好问题。 严格来说,没有对比过。我们只是分别对比了 不同关键词抽取算法的效果 & 带/不带关键词的bert效果,没有做joint的评测 不过关键词作为一个 additional info,直觉上,肯定只会增加而不会削弱模型识别句对儿的能力

Q1.并不是双塔,底层的11个layer参数都是share的,用 AUTO_REUSE 实现。见 917行向后 Q2.不会

有的, `modeling.py` 的 line 693~694

第一种方式 就像我博客说的,直接用6 layer,用 tf-serving 第二种方式,借助专门的底层加速硬件,比如nvidia的

好问题。 NER的前提是要做大量的数据标注,在开放域上并非易事。 实际使用的时候,我们把NER的结果、正则匹配结果、PMI结果 都放在一起做后处理