ConniePK

Results 5 comments of ConniePK

> ![image](https://private-user-images.githubusercontent.com/56216032/311687566-9c28a496-491c-4409-a6ea-fa6410ed2033.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MjE3MjMxNDAsIm5iZiI6MTcyMTcyMjg0MCwicGF0aCI6Ii81NjIxNjAzMi8zMTE2ODc1NjYtOWMyOGE0OTYtNDkxYy00NDA5LWE2ZWEtZmE2NDEwZWQyMDMzLnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDA3MjMlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQwNzIzVDA4MjA0MFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWRiMTY3MDI2YzdiZDVkMDdlZWVhYjhkNDMxNmFhMzQwYWI4MzUyYWQ5ZTRmYTViNWU1MjRhYTU5ZmExODYyY2QmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.yWiVDH0WpZyBCJu0JEXsLMFjbfGHqPqwEiZQS4wN1G8) 一直卡在这里,正常嘛? @hiyouga 能帮忙看下不,我也是卡在了这儿

> unsloth 免费版本仅支持 2x GPU 并行,更多的 GPU 需要申请商业版。 [#4105](https://github.com/hiyouga/LLaMA-Factory/issues/4105) 我没开unsloth啊

> VLLM_WORKER_MULTIPROC_METHOD=spawn 确实,卸载了就好了

> 请使用 llamafactory-cli api qwen3-32b,使用api部署还是一样的问题(vllm版本0.8.5, llamafactory为0.9.3),无法保证输出总是一致的。具体的现象如下: 在一些简单prompt的情况下,vllm的输出是一致的((temperature = 0,seed=42)),但遇到一些超长的复杂的prompt,比如我测试5次,每次都是第1次的结果会不一样,而后4次的结果就都一样的,非常的奇怪,测试了多个case都是这样。我贴了一条prompt在下面: ``` # 角色设定 你需结合信号数据、DTC代码等,按照标准思维链定位故障原因。 处理要求 1. 按思维链每个节点严格推进,每节点必须验证: - 信号数值是否达到阈值 - 状态是否发生指定变化 # 输出规范 1. 分步骤陈述验证过程,格式: [步骤X] 检查: • 关键信号:=(时间戳) • DTC关联:...

> > 请使用 llamafactory-cli api > > qwen3-32b,使用api部署还是一样的问题(vllm版本0.8.5, llamafactory为0.9.3),无法保证输出总是一致的。具体的现象如下: 在一些简单prompt的情况下,vllm的输出是一致的((temperature = 0,seed=42)),但遇到一些超长的复杂的prompt,比如我测试5次,每次都是第1次的结果会不一样,而后4次的结果就都一样的,非常的奇怪,测试了多个case都是这样。我贴了一条prompt在下面: > > ``` > # 角色设定 > 你需结合信号数据、DTC代码等,按照标准思维链定位故障原因。 > 处理要求 > 1. 按思维链每个节点严格推进,每节点必须验证: > - 信号数值是否达到阈值 > -...