transformers_tasks icon indicating copy to clipboard operation
transformers_tasks copied to clipboard

⭐️ NLP Algorithms with transformers lib. Supporting Text-Classification, Text-Generation, Information-Extraction, Text-Matching, RLHF, SFT etc.

Results 60 transformers_tasks issues
Sort by recently updated
recently updated
newest added

if 'token_type_ids' in tokenized_output: # 兼容不需要 token_type_id 的模型, e.g. Roberta-Base if 'token_type_ids' not in tokenized_output: tokenized_output['token_type_ids'] = [encoded_inputs['token_type_ids']] else: tokenized_output['token_type_ids'].append(encoded_inputs['token_type_ids']) 大佬您好,看到units.py里的这段代码应该有一些问题,希望您看一下是否需要删除if 'token_type_ids' in tokenized_output:这行代码

_pickle.UnpicklingError: invalid load key, '

结果没有你写的那么高,只有F1值只有70%左右

请问LLM 下zero-shot 的信息提取任务 可以分享一下 f1 precisson recall数值的计算代码吗

佬你的p-tuing代码真的正确吗?似乎只是在cls后面加了一堆固定的字符,那些字符不能学习的呀,,,和p-tuing论文写的不是一回事呀,p-tuing原作者的论文太难理解了,有人能解答一下我的问题吗?

请问为什么按项目中的训练数据微调后,模型的表现反而比微调之前下降了很多呢?

多卡训练需要去掉混合精度,否则会:RuntimeError: expected scalar type Half but found Float,因为模型是Half加载的

Hi Harder 您好, 我在运行标注平台时,报错如下 我想问一下,我在哪里可以下载 checkpoints/model_1000 呢? 感谢您的解答

老师您好,在根据您的方法进行多gpu运算之后,在执行python inference.py进行推理的时候,出现了错误。 ![image](https://github.com/HarderThenHarder/transformers_tasks/assets/23513264/02ad07dc-4d7a-4e08-a7f8-2272e7819f2d) 期待您的解惑。 我意识到自己,在train_multi_gpu.py中更改了本地的模型地址。请问我该如何做? ![image](https://github.com/HarderThenHarder/transformers_tasks/assets/23513264/2cb89e2c-5b9d-4d6b-af84-27f29945426a)