Joel
Joel
请问作者,目前使用该模型,对其他数据集进行实验时,比如 ontonotes 5.0 中文,效果并不理想,F1 才到22。百思不得其解。调整了学习率还是不佳,请教应从哪个角度着手解决呢?
如题。“尝试在英文数据集下进行训练,比如ConLL2003,换用了预训练模型,将robeta_zh, 更改为Roberta(https://huggingface.co/FacebookAI/roberta-base)。但效果很差”。是否是因为代码 “ context_outputs = self.encoder(input_ids, attention_mask, token_type_ids) # last_hidden_state:(batch_size, seq_len, hidden_size) last_hidden_state = context_outputs[0] batch_size = last_hidden_state.size()[0] seq_len = last_hidden_state.size()[1] outputs = self.dense(last_hidden_state)” 无法适配英文句子在分词后,并未与原始词位置的映射?中文分词只是字不存在这样的问题。