JaonLiu
JaonLiu
@duterscmy 我运行`tuple_filter.py`的结果: ``` 单实体问题中,候选答案可召回的的比例为:0.730 候选答案能覆盖标准查询路径的比例为:0.461 单实体问题中,候选答案可召回的的比例为:0.772 候选答案能覆盖标准查询路径的比例为:0.638 在验证集上逻辑回归筛选后top10 召回率为0.72 单实体问题中,候选答案可召回的的比例为:0.731 候选答案能覆盖标准查询路径的比例为:0.560 ``` 这个结果是偏低吗?你的大概多少?
> 您好~我需要首先复现一下您的结果,麻烦请您稍微等一下,如果实验有结果之后一定给您反馈。应该是实验过程中哪里出问题了。十分感谢您的反馈! 感谢您的回复,敬候~
Urgent need for Chinese version pretrain model,Thanks a lot!
这里是选择 BIOS 格式,为何不选择 BIO , 是有实验结果说明 BIOS的指标更好吗?谢谢~
Hope to know the denoising part, I find that noise is common in this data set. For example: `赵一荻 张学良 夫妻 与赵一荻其实对张学良、赵一荻来说,他们真正最坏的结果,就是自由的丧失。` we can not extract the spousal relationship between...
> 这个是由于pytorch 1.5以上BiLSTM升级导致的。可以在[pytorch/pytorch#43227](https://github.com/pytorch/pytorch/issues/43227) 这里看到。最新的fastNLP已经适配这个了。通过pip install git+https://gitee.com/fastnlp/fastNLP@dev 可以解决。 按照你给的这个方案安装 dev后依然报错。。。。。。`RuntimeError: 'lengths' argument should be a 1D CPU int64 tensor, but got 1D cuda:0 Long tensor`. 使用的torch版本是`1.7.1`
路人甲的理解是:这里fixlen是指的句子的长度,而max_len是指记录位置向量的范围,这个显然是要小于句子长度的。正如RNN/LSTM等的上下文记忆范围是有限的,这里似乎是人为指定这么个范围。至于为啥是具体值是70和60,得作者来回答了@crownpku 。可能是统计,或者直觉。。。。
> Hi @dkloving . The ONNX model exported by `yolort` currently doesn't support fp16 (half) now. This will be a good enhancement, I will check how to implement this feature...
> > I have the same problem using agent=ConversationalAgent, llm=OpenAI and a set of tools. I confirm the Agent always translate the question to english and puts it in the...
```transformers/generation/utils.py", line 1051, in compute_transition_scores indices = sequences[:, cut_idx:] + beam_sequence_indices RuntimeError: The size of tensor a (114) must match the size of tensor b (259) at non-singleton dimension 1...