ConniePK
ConniePK
>  一直卡在这里,正常嘛? @hiyouga 能帮忙看下不,我也是卡在了这儿
> unsloth 免费版本仅支持 2x GPU 并行,更多的 GPU 需要申请商业版。 [#4105](https://github.com/hiyouga/LLaMA-Factory/issues/4105) 我没开unsloth啊
> VLLM_WORKER_MULTIPROC_METHOD=spawn 确实,卸载了就好了
> 请使用 llamafactory-cli api qwen3-32b,使用api部署还是一样的问题(vllm版本0.8.5, llamafactory为0.9.3),无法保证输出总是一致的。具体的现象如下: 在一些简单prompt的情况下,vllm的输出是一致的((temperature = 0,seed=42)),但遇到一些超长的复杂的prompt,比如我测试5次,每次都是第1次的结果会不一样,而后4次的结果就都一样的,非常的奇怪,测试了多个case都是这样。我贴了一条prompt在下面: ``` # 角色设定 你需结合信号数据、DTC代码等,按照标准思维链定位故障原因。 处理要求 1. 按思维链每个节点严格推进,每节点必须验证: - 信号数值是否达到阈值 - 状态是否发生指定变化 # 输出规范 1. 分步骤陈述验证过程,格式: [步骤X] 检查: • 关键信号:=(时间戳) • DTC关联:...
> > 请使用 llamafactory-cli api > > qwen3-32b,使用api部署还是一样的问题(vllm版本0.8.5, llamafactory为0.9.3),无法保证输出总是一致的。具体的现象如下: 在一些简单prompt的情况下,vllm的输出是一致的((temperature = 0,seed=42)),但遇到一些超长的复杂的prompt,比如我测试5次,每次都是第1次的结果会不一样,而后4次的结果就都一样的,非常的奇怪,测试了多个case都是这样。我贴了一条prompt在下面: > > ``` > # 角色设定 > 你需结合信号数据、DTC代码等,按照标准思维链定位故障原因。 > 处理要求 > 1. 按思维链每个节点严格推进,每节点必须验证: > - 信号数值是否达到阈值 > -...