Efficient-GlobalPointer-torch
Efficient-GlobalPointer-torch copied to clipboard
尝试在英文数据集下进行训练,比如ConLL2003,但效果很差
如题。“尝试在英文数据集下进行训练,比如ConLL2003,换用了预训练模型,将robeta_zh, 更改为Roberta(https://huggingface.co/FacebookAI/roberta-base)。但效果很差”。是否是因为代码 “ context_outputs = self.encoder(input_ids, attention_mask, token_type_ids) # last_hidden_state:(batch_size, seq_len, hidden_size) last_hidden_state = context_outputs[0]
batch_size = last_hidden_state.size()[0]
seq_len = last_hidden_state.size()[1]
outputs = self.dense(last_hidden_state)”
无法适配英文句子在分词后,并未与原始词位置的映射?中文分词只是字不存在这样的问题。
你好请问,跑多少轮可以,我跑了30论,第30轮,F1值提升了,准确要跑多少轮