Winlone囧v

Results 27 comments of Winlone囧v

> > > > 已解决DeepSeek-R1-Distill-Llama-8B-GGUF加载 这种llama引擎加载的gguf格式模型,一定要把模型路径最后加上模型文件名 > > > > ![Image](https://github.com/user-attachments/assets/be33ac7c-fb57-4e08-9d52-5c69f16eb2ef) > > > > ![Image](https://github.com/user-attachments/assets/6a5cbd43-1ad7-446c-b60c-b876df75624b) > > > > > > > > > llama引擎是不是比transformer快呀 > > > >...

我启动的是cosyvoice2的模型CosyVoice2-0.5B,启动和合成没有保存,但是语音发音是乱的。 版本:transformers 4.51.3 vllm 0.9.0,按照官方版本依然是乱音 CosyVoice2(args.model_dir, load_jit=True, load_trt=True, load_vllm=True, fp16=True) 请问你这边有语音乱音的情况吗?我的问题在这个贴:#1601

> 我的transformers==4.53.2也是会有这个问题,这个节点问题好多qwq,4.51.3可以 我的用transformers 4.51.3也不行,一样是乱音 我启动的是cosyvoice2的模型CosyVoice2-0.5B,启动和合成没有保存,但是语音发音是乱的。 CosyVoice2(args.model_dir, load_jit=True, load_trt=True, load_vllm=True, fp16=True) 我已经按照官方的版本来安装,发现合成出来还是语音混乱的 请问你这边有语音乱音的情况吗?我的问题在这个贴:https://github.com/FunAudioLLM/CosyVoice/issues/1601

用vllma就快了,transfomer很慢,不知道为什么;旧版不知道用哪个,没 这个选项

> 显存有限,vllm用不起,应该说这是一个特性的变化,没有什么特别的改动么?没有改动就变慢了,那就奇怪了,有改动说一下改动在哪,我尝试单独打个版本改回来都成。 我都不知道原来那个什么版本,因为拉的镜像是lastest,原来旧版很快的,就是升级后分开了vllma和transfomer,vllma占用显存多了,但是速度快;transfomer就速度很慢,虽然占用显存和原来旧版一样。

> > > 有没有大佬可以分享下vllm配置CosyVoice2.0的心路历程啊。 > > > > > > 请问找到vllm怎么使用了吗? > > 看下里面的requirements.txt,然后按照下面的环境搭建就ok了,把模型推理部分的函数vllm部分改为True, anyio==4.9.0 asteroid-filterbanks==0.4.0 async-timeout==5.0.1 attrs==25.3.0 certifi==2025.7.14 cffi==1.17.1 clearvoice==0.1.1 cloudpickle==3.1.1 comm==0.2.2 compressed-tensors==0.9.4 conformer==0.3.2 cupy-cuda12x==13.5.1 Cython==3.1.2 deepspeed==0.15.1 diffusers==0.29.0 einops==0.8.1...