liyunhan
liyunhan
想在自己的开题报告中引用您相关的论文
开题报告中想引用您的论文
您好,感谢您的开源代码。 我有个问题想请教您,我看到您在 data.py 文件的 __getitem___() 函数中,在构建 subject 对应的 objects 数据时,通过 random.choice 方法只选取了一个 subject 及其 object 作为数据,其余的 subject 不构建对应的数据了嘛 0.0?一条句子中可能有多个一对多的关系,那其余一对多的关系不能作为数据,怎么保证单条抽取的精度和完整度呢
想请教您两个问题: 1. 模型中的BERT参与到反向传播了么?还是说只当成Embedding用了呢? 2. BERT的输入需要在句子头尾加入[cls]和[spe],如果我在BERT后面接入一个LSTM而不是Linear,那是不是要在BERT的输出中截断这两个位置的向量呢?
您好,非常有幸在CSDN看到了您的博文,关系抽取系列文章阅读下来后对您是无比的敬佩(尤其是附有pytorch和tf的实现) 但是有点关于GlobalPointer的小问题想要请教,相信您关于GlobalPointer的代码实现也参考了苏神的源码,我看到苏神在GlobalPointer的相关实现中用到了sequence_mask,即` logits = sequence_masking(logits, mask, '-inf', 2) logits = sequence_masking(logits, mask, '-inf', 3)` 但是在调用GlobalPointer的时候却没有传入mask矩阵,即`model = build_transformer_model(config_path, checkpoint_path) output = GlobalPointer(len(categories), 64)(model.output)`请问这是为何?
您好,请问模型在进行关系预测的时候,如果一次预测出多个潜在关系,那是将多个潜在关系分别输入模型,然后再进行实体的预测么?
希望得到回复:想知道corpus训练好的模型怎么保存?毕竟不能每次都重新在线训练~
**AgentScope is an open-source project. To involve a broader community, we recommend asking your questions in English.** **Is your feature request related to a problem? Please describe.** 现在的Agent调度还是固定的,确定好Agent的执行流程,能不能让Agent自己作为其它Agent的调度器? **Describe the...