codingma

Results 76 comments of codingma

Maybe you can try this script https://github.com/hiyouga/LLaMA-Factory/blob/main/tests/test_toolcall.py for a reference.

1. 可能是文件下载不全 2. 请升级到新版本

The model Llama-3-8B-Instruct-Gradient-1048k can support longer input, which needs more GPU VRAM, causing this error

格式是一样的,框架内会自动按照 template处理

已在修复,不影响使用。

不是很明白你的问题是什么,数据不管是单轮还是多轮都按照数据集的格式要求分字段存入即可。

昇腾用户可以加入这个群做进一步交流 ![img_v3_02ap_12409f4b-3caf-41a0-9d86-d823a9b9cfag](https://github.com/hiyouga/LLaMA-Factory/assets/11713241/8a6caa35-865b-4b94-bda3-65636a86e0c4)

昇腾相关用户可以加入这个群做进一步交流 ![20240511-094900](https://github.com/hiyouga/LLaMA-Factory/assets/11713241/c4213f09-72fc-4ab9-b202-138bfd708431)