xxg98
xxg98
居然不支持jdk1.8?
又出现了一次 
> 1.02 增加该参数之后语无伦次了,hh 
> 用transformers推理的结果是怎样的呢? 具体是什么代码呢,形如下面这样的吗? ``` model = AutoModelForCausalLM.from_pretrained(model_path, torch_dype=torch.float16, trust_remote_code=True).cuda() tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True) ```
> 是用xtuner微调的 是用xtuner微调的,您的意思是说用xtuner的chat试试,会不会发生这种重复的情况吗?
> 恩,是这个意思 我会去去试试的
> valHook 损失下降挺正常的,针对配置中```evaluation_inputs```的回答也是挺正常的(和训练的数据集对的上)