ke-01

Results 3 issues of ke-01

获取每个token的生成概率,即模型的logits输出,使用model.generate()获取到的概率值太绝对。 `logits = output["scores "]` 经过softmax后,在回答”是否“问题上,为什么可以做到“否”概率全是0,而“是”概率是1,或者相反。 有没有一些措施可以避免概率不这么绝对?

关于seq2seq模型训练,我有两个问题: 1.为什么只使用错误的句子进行训练?这样会不会影响遇到测试集中正确的句子时的性能 2.在剔除训练数据集中的正确的句子时,是考虑原文本和纠错文本完全一致的文本才剔除。那么在其他场景下,想问一下如果原句子和纠错后的句子语法都是正确的,但是文本不太一致的情况,这样有哪些处理措施吗?

**咨询的功能模块** 数据增强 jio.homophone_substitution **咨询的具体内容和问题** 看到代码说特殊情况返回空列表,请问什么算特殊情况呢?

question