strange response
模型权重是在 https://huggingface.co/LMFlow/Robin-7b-v2/tree/main 下载的,应该不需要再合并了。
启动命令使用的是:
CUDA_VISIBLE_DEVICES=0 python examples/chatbot.py --model_name_or_path /home/gpt/weights/Robin-7b-v2 --deepspeed configs/ds_config_chatbot.json --use_ram_optimized_load False
你好,这个应该是delta 模型,请先和主模型合并,谢谢!
Hi, this may be a delta model. Please merge it first.
我使用llama-7b-hf与Robin-7b-v2合并之后,模型输出不乱码了,但是在接着我的续写,自问自答,这是怎么回事:
可能是prompt structure的问题,可以检查一下运行的指令
It may be a problem with the prompt structure. You can check the command you are running to verify it
@shizhediao 请问怎么合并模型?是用fastchat的apply_delta吗?我使用0.2.17版本的fastchat合并hugging face上的llama-7b模型和lmflow中提供的7B的delta模型后,输出还是有问题
下面是我用的指令
python3 -m fastchat.model.apply_delta \
--base llama-7b-hf \
--delta lmflow/robin-7b-v2-delta \
--target lmflow/target_weight
我记得没错的话,我是用的LMFlow提供的代码合并的模型。
python utils/apply_delta.py \
--base-model-path {huggingface-model-name-or-path-to-base-model} \
--delta-path {path-to-delta-model} \
--target-model-path {path-to-merged-model}
我记得没错的话,我是用的LMFlow提供的代码合并的模型。
python utils/apply_delta.py \ --base-model-path {huggingface-model-name-or-path-to-base-model} \ --delta-path {path-to-delta-model} \ --target-model-path {path-to-merged-model}
请参考这个,谢谢
Please refer to this, thanks!
可以了,谢谢