Huatuo-Llama-Med-Chinese
Huatuo-Llama-Med-Chinese copied to clipboard
Repo for BenTsao [original name: HuaTuo (华驼)], Instruction-tuning Large Language Models with Chinese Medical Knowledge. 本草(原名:华驼)模型仓库,基于中文医学知识的大语言模型指令微调
包括但不限于易经,针灸大成,神农本草经,黄帝内经,黄帝外经,伤寒论,金匮要略?是否以经方为主,是否训练了名医书籍和医案?
整个模型是直接在llama上面指令微调得来的吗?是不是先用中文语料让llama学习中文之后再指令微调会更好呢?
如果可以的话,基础模型是Alpaca-7B 还是Chinese-Alpaca-7B Lora用华驼这个项目的模型?
申请入群
请问如何加群,群显示超过200人需要邀请,下面的个人码显示被加太多,被腾讯风控了
你好,很有意思的工作,工作中提出的SUS评判标准具体是怎么计算得到的呢
看到你们的项目中利用GPT3.5接口围绕医学文献多轮问答数据,我觉得这个idea很好。但是从示意图当中还是没太看明白具体是怎样生成多轮问答数据的。能再给出具体的解释吗?多谢!
HuggingFace -> Hugging Face
def main( load_8bit: bool = True, base_model: str = "decapoda-research/llama-7b-hf", # the infer data, if not exists, infer the default instructions in code instruct_dir: str = "./data/infer.json", use_lora: bool =...
/home/halo_op/anaconda3/envs/py39/lib/python3.9/site-packages/bitsandbytes/cuda_setup/main.py:145: UserWarning: Found duplicate ['libcudart.so', 'libcudart.so.11.0', 'libcudart.so.12.0'] files: {PosixPath('/usr/local/cuda/lib64/libcudart.so.11.0'), PosixPath('/usr/local/cuda/lib64/libcudart.so')}.. We'll flip a coin and try one of these, in order to fail forward. Either way, this might cause trouble...