codingma
codingma
Maybe you can try this script https://github.com/hiyouga/LLaMA-Factory/blob/main/tests/test_toolcall.py for a reference.
1. 可能是文件下载不全 2. 请升级到新版本
The model Llama-3-8B-Instruct-Gradient-1048k can support longer input, which needs more GPU VRAM, causing this error
格式是一样的,框架内会自动按照 template处理
已在修复,不影响使用。
模型大小跟数据集没有关系
Just ignore it.
不是很明白你的问题是什么,数据不管是单轮还是多轮都按照数据集的格式要求分字段存入即可。
昇腾用户可以加入这个群做进一步交流 
昇腾相关用户可以加入这个群做进一步交流 