Huatuo-Llama-Med-Chinese icon indicating copy to clipboard operation
Huatuo-Llama-Med-Chinese copied to clipboard

为什么使用提供的alpaca 的lora参数推理出来的结果完全不对,胡言乱语

Open HeisenbergSu opened this issue 1 year ago • 1 comments

image

HeisenbergSu avatar May 25 '23 02:05 HeisenbergSu

截屏2023-05-25 16 38 16

我的推理结果也不对,基于llama。 具体参数如下: base_model: str = "decapoda-research/llama-7b-hf", # the infer data, if not exists, infer the default instructions in code instruct_dir: str = "", use_lora: bool = True, lora_weights: str = "lora-llama-literature",

YaxinCui avatar May 25 '23 08:05 YaxinCui

我的也是,请问我问题解决了没?

chenxu126 avatar Jun 09 '23 04:06 chenxu126

您好,请描述一下您的设置,我们尝试复现一下

s65b40 avatar Jun 13 '23 04:06 s65b40

是需要先将 chinese-llama-alpaca 的模型组合之后 作为 base_model么,还是直接用原来的 LLaMa(META) 的?

Nisoka avatar Jun 15 '23 02:06 Nisoka

是需要先将 chinese-llama-alpaca 的模型组合之后 作为 base_model么,还是直接用原来的 LLaMa(META) 的?

您好,都可以的,我们提供了针对原始的llama以及中文alpaca的lora模型参数

s65b40 avatar Jul 04 '23 00:07 s65b40