LaWGPT
LaWGPT copied to clipboard
模型合并之后 出现了奇怪的回答
vi scripts/webui.sh
python webui.py \ --load_8bit True \ --base_model '/root/autodl-tmp/LaWGPT/models/base_models/legal_base-7b' \ --lora_weights '/root/autodl-tmp/LaWGPT/models/lora_weights/lawgpt-lora-7b' \ --prompt_template "law_template" \ --server_name "0.0.0.0" \ --share_gradio True \
我这更惨,不知道哪的原因
vi scripts/webui.sh
python webui.py \ --load_8bit True \ --base_model '/root/autodl-tmp/LaWGPT/models/base_models/legal_base-7b' \ --lora_weights '/root/autodl-tmp/LaWGPT/models/lora_weights/lawgpt-lora-7b' \ --prompt_template "law_template" \ --server_name "0.0.0.0" \ --share_gradio True \
![]()
解决了嘛
没有解决 不知道该怎么搞
没有解决 不知道该怎么搞
我也是 哇 我运行的时候还报一堆警告 加个V GGZH1214 沟通一下
我这更惨,不知道哪的原因
你好,请问你解决了吗?
base模型和lora模型应该是搞错了,导致的。 base model: https://huggingface.co/minlik/chinese-alpaca-plus-7b-merged/ Lora weights: https://huggingface.co/entity303/lawgpt-lora-7b-v2
我结合这2个,至少能正常作答了。