DataTerminatorX
DataTerminatorX
same here. changed many tensorflow versions( from 0.12.0 to 1.3.0) still unsolved
I agree with what @chanansh said. I think the function of **output feature naming** will be very useful for feature selection and feature union. As far as I know, `pandas.get_dummies()`...
我们试过 1:1 1:3 1:5 1:10 之类
其实最后是个排序问题,从一堆Q中找最match的Q,所以单个pair对儿的准确率并不是最重要的
Thx for pointing out the typo. Parsing keyword masks is actually implemeted in `run_classifier.py`, not `extract_feature.py` . I've updated the readme file. Also, I've uploaded a new script called `data/convert_to_bert_keyword.py`...
好问题。 严格来说,没有对比过。我们只是分别对比了 不同关键词抽取算法的效果 & 带/不带关键词的bert效果,没有做joint的评测 不过关键词作为一个 additional info,直觉上,肯定只会增加而不会削弱模型识别句对儿的能力
Q1.并不是双塔,底层的11个layer参数都是share的,用 AUTO_REUSE 实现。见 917行向后 Q2.不会
有的, `modeling.py` 的 line 693~694
第一种方式 就像我博客说的,直接用6 layer,用 tf-serving 第二种方式,借助专门的底层加速硬件,比如nvidia的
好问题。 NER的前提是要做大量的数据标注,在开放域上并非易事。 实际使用的时候,我们把NER的结果、正则匹配结果、PMI结果 都放在一起做后处理