Huatuo-Llama-Med-Chinese icon indicating copy to clipboard operation
Huatuo-Llama-Med-Chinese copied to clipboard

Repo for BenTsao [original name: HuaTuo (华驼)], Instruction-tuning Large Language Models with Chinese Medical Knowledge. 本草(原名:华驼)模型仓库,基于中文医学知识的大语言模型指令微调

Results 62 Huatuo-Llama-Med-Chinese issues
Sort by recently updated
recently updated
newest added

我观察到作者在README 中提到了目前已支持 中文Alpaca大模型。但其也是一个 lora 权重,如何在模型里加载两份 lora 权重呢?

请问你们是如何利用GPT3.5的api加本地已有的数据,来构建的训练数据集呢?

在本地测了Chinese-alpaca-7b + lora-alpaca-med-alldata,在多轮对话上,效果很好。 请问: 1. 如何利用llama.json以及liver_cancer.json,如何合并数据集(一个多轮对话,一个单轮对话),直接合并放在一个文件么? 2. 复现您们的训练效果,该使用哪个模板?('med_template' or 'literature_template.json') 3. 目前我有 8 X A100(40G), micro_batch_size和batch_size该如何设置(都是64么?为您们设置的一半?) 4. 关于LoRA的rank和alpha值?听说在垂直领域微调时,加大LoRA的rank值效果会好些,想问下您们关于LoRA的rank值以及alpha值的选取的相关经验 感谢您们百忙之中抽空解答,祝项目越来越好,感谢!

看说明,现在的中医知识库好像都通过ChatGPT-3做了格式转换,有规划其他方式添加训练数据吗? 谢谢

![image](https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese/assets/51817054/2b4a1398-10d9-47fe-a0c7-774f8bc7a7ba) 请问下图中的两个文件是怎么生成的呢,是直接运行finetune.py得到的吗? ![image](https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese/assets/51817054/5f1a152e-1c11-4244-a2ca-614e3d625248) 感谢回答。

1. 期望复现 llama lora 使用文中提到的语料库训练; 2. 只修改 finetune.sh 中对应的 base model 路径,其他都未做修改; 3. 运行完之后,命令行报错: ``` he intermediate checkpoints of PEFT may not be saved correctly, using `TrainerCallback` to save adapter_model.bin...

![20230603184321](https://github.com/SCIR-HI/Huatuo-Llama-Med-Chinese/assets/19886457/2445a432-9c1e-441a-b776-89dcf08be3ab)

请问是否对BenTsao做过领域能力与通用能力的评测? 模型训练只是使用了8K+的医疗领域指令微调吗?如果这样的话模型会灾难遗忘吧,忘记通用的一些能力。

“利用GPT3.5 API将医学文献中的【结论】作为外部信息融入多轮对话中,在此基础上对LLaMA进行了指令微调” 请问具体是怎么做的呢?是否能详细介绍一下?“结论”信息如何融入多轮对话中?