Keyword-BERT icon indicating copy to clipboard operation
Keyword-BERT copied to clipboard

Results 17 Keyword-BERT issues
Sort by recently updated
recently updated
newest added

您好,您用6layer的并发支持好吗?我是用tf serving来落地的,但是并发一般呀。感谢回复

请问目前为止,fusion_rep的实现方式[rep_CLS, rep_a, rep_b, rep_a-rep_b, rep_b-rep_a]和[rep_CLS, dense([rep_a, rep_b)],还是第一个的效果最好吗?还是说尝试出了更好的实现方式,所以改成第二种了?

在modeling.py中 1. 重复定义 transformer_model_kw,定义了两次 2. 函数 transformer_model_kw,和 transformer_model几乎一样,为何不加个参数直接复用,而是写成两个函数 3. fusion_rep 的实现和paper里面讲的不一样,我认为paper讲的是,[rep_CLS, rep_a, rep_b, rep_a-rep_b, rep_b-rep_a]而在代码实现中是,将[rep_CLS, dense([rep_a, rep_b)] 这个很confusing呀 4. no ablation studies ?我想知道的是不同的fusion ways 的效果对比

query和question都比较短,是否训练或测试过程中,实际用到的关键词与直接对其进行NER得到的词相比差不多?

I have read readme.md and don't know how to load raw data in convert_to_bert_keyword.py to transform to bert keyword. Also I don't understand the raw data. It is a keyword...