LaWGPT
LaWGPT copied to clipboard
这个项目很好.谢谢作者. 请问模型如何下载. 找不到入口. 持续关注.
有一个 Legal-Base-7b 模型,但还少一个LaWGPT-7B-beta1.0的lora模型,还少一个Merge脚本文件
谢谢您 , 请问您Legal-Base-7B在哪里 . 50W裁判文书网是如何构建数据集的? 采用的有监督还是无监督训练呢
预训练一般是无监督,微调的时候一般是有监督,同样好奇数据集如何构建的
同样好奇,关注一下
模型地址: https://huggingface.co/entity303/lawgpt-lora-7b-v2/tree/main
使用方法:
python webui.py
--load_8bit False
--base_model 'minlik/chinese-alpaca-plus-7b-merged'
--lora_weights 'entity303/lawgpt-lora-7b-v2'
--prompt_template "law_template"
--server_name "0.0.0.0"
--share_gradio True \
模型地址: https://huggingface.co/entity303/lawgpt-lora-7b-v2/tree/main
使用方法: python webui.py --load_8bit False --base_model 'minlik/chinese-alpaca-plus-7b-merged' --lora_weights 'entity303/lawgpt-lora-7b-v2' --prompt_template "law_template" --server_name "0.0.0.0" --share_gradio True \
chinese-alpaca-plus-7b-merged 这个是chinese-llama-7b-merged和lawgpt-lora-7b-v2合并模型成的吗