Huatuo-Llama-Med-Chinese
Huatuo-Llama-Med-Chinese copied to clipboard
为什么使用提供的alpaca 的lora参数推理出来的结果完全不对,胡言乱语
我的推理结果也不对,基于llama。 具体参数如下: base_model: str = "decapoda-research/llama-7b-hf", # the infer data, if not exists, infer the default instructions in code instruct_dir: str = "", use_lora: bool = True, lora_weights: str = "lora-llama-literature",
我的也是,请问我问题解决了没?
您好,请描述一下您的设置,我们尝试复现一下
是需要先将 chinese-llama-alpaca 的模型组合之后 作为 base_model么,还是直接用原来的 LLaMa(META) 的?
是需要先将 chinese-llama-alpaca 的模型组合之后 作为 base_model么,还是直接用原来的 LLaMa(META) 的?
您好,都可以的,我们提供了针对原始的llama以及中文alpaca的lora模型参数