LLM-NER
LLM-NER copied to clipboard
LLM for NER
Results
5
LLM-NER issues
Sort by
recently updated
recently updated
newest added
在看lora/fine-tune.py中的177行时,如下图 我感觉,prompt经过tokenize后,它的最后一个token对应的标签应该是answer第一个token,那么 labels[context_length-1] 应该是 b_ids[0],而不是self.tokenizer.pad_token_id。
训练的时候断了,怎么才能继续训练呢? 有参数可以设置吗?
请问p-tuning部分的代码适用于qwen1.5的模型吗?