transformers_tasks
transformers_tasks copied to clipboard
⭐️ NLP Algorithms with transformers lib. Supporting Text-Classification, Text-Generation, Information-Extraction, Text-Matching, RLHF, SFT etc.
发现错误的代码
if 'token_type_ids' in tokenized_output: # 兼容不需要 token_type_id 的模型, e.g. Roberta-Base if 'token_type_ids' not in tokenized_output: tokenized_output['token_type_ids'] = [encoded_inputs['token_type_ids']] else: tokenized_output['token_type_ids'].append(encoded_inputs['token_type_ids']) 大佬您好,看到units.py里的这段代码应该有一些问题,希望您看一下是否需要删除if 'token_type_ids' in tokenized_output:这行代码
_pickle.UnpicklingError: invalid load key, '
UIE信息抽取
结果没有你写的那么高,只有F1值只有70%左右
请问LLM 下zero-shot 的信息提取任务 可以分享一下 f1 precisson recall数值的计算代码吗
关于ptuing
佬你的p-tuing代码真的正确吗?似乎只是在cls后面加了一堆固定的字符,那些字符不能学习的呀,,,和p-tuing论文写的不是一回事呀,p-tuing原作者的论文太难理解了,有人能解答一下我的问题吗?
请问为什么按项目中的训练数据微调后,模型的表现反而比微调之前下降了很多呢?
多卡训练需要去掉混合精度,否则会:RuntimeError: expected scalar type Half but found Float,因为模型是Half加载的
Hi Harder 您好, 我在运行标注平台时,报错如下 我想问一下,我在哪里可以下载 checkpoints/model_1000 呢? 感谢您的解答
老师您好,在根据您的方法进行多gpu运算之后,在执行python inference.py进行推理的时候,出现了错误。  期待您的解惑。 我意识到自己,在train_multi_gpu.py中更改了本地的模型地址。请问我该如何做? 