Loong
Loong
> 我写了个离线的 用自己azure key, text => mp3, 还是需要手动的 文本的分割和clean up 在我repo下面 test-to-speech 你这个不还使用了Azure,这也叫离线。。。。。?
我也是没有反应,系统应该是正式版,非insider,软件是MS Store安装的 Windows 11 专业版 版本 22H2 安装日期 2022/9/13 操作系统版本 22622.598 体验 Windows Feature Experience Pack 1000.22634.1000.0
这个指的是可以直接在Windows文件资源管理器里添加映射网络驱动器吗?
这个指的是可以直接在Windows文件资源管理器里添加映射网络驱动器吗?
> 这个需求可以直接用量化后的模型 https://huggingface.co/THUDM/chatglm-6b-int4 和 https://huggingface.co/THUDM/chatglm-6b-int8 不过量化之后在 GPU 上推理也是需要用 CUDA写的 kernel的,我觉得可能无法成功。要解决这个问题还是要把 CUDA kernel 移植到 ROCm 并不需要用 CUDA写的 kernel,我将chatglm移植到directml为后端的gpu推理,是可以成功运行的。 当然,有privateuse1的问题,这个可以用从源码编译torch解决
> > > 这个需求可以直接用量化后的模型 https://huggingface.co/THUDM/chatglm-6b-int4 和 https://huggingface.co/THUDM/chatglm-6b-int8 不过量化之后在 GPU 上推理也是需要用 CUDA写的 kernel的,我觉得可能无法成功。要解决这个问题还是要把 CUDA kernel 移植到 ROCm > > > > > > 并不需要用 CUDA写的 kernel,我将chatglm移植到directml为后端的gpu推理,是可以成功运行的。 当然,有privateuse1的问题,这个可以用从源码编译torch解决 > > 好的,如果有完成的实现的话可以加到友情链接里 我的意思是,我虽然可以做到实现在Windows上使用DirectML为后端的移植。但是我用同样的方法无法让代码在Linux上使用ROCm(hip)为后端的移植。...
> 有个AMD的显卡,运行一直报Could not find module 'nvcuda.dll ,然后换cpu模式也是报这个错,按照[#6 (comment)](https://github.com/THUDM/ChatGLM-6B/issues/6#issuecomment-1470060041) 这个issue去修改了 也还是不行,请问还有什么思路可以修改吗?? ?è ***@***.*** > […](#) > ------------------ 原始邮件 ------------------ 发件人: "Zhengxiao ***@***.***>; 发送时间: 2023年4月2日(星期天) 下午3:46 收件人: ***@***.***>; 抄送: ***@***.***>; ***@***.***>; 主题:...
> > > > rocm跑起来了。我的测试代码能调用a卡计算了。但是… 这个起不来。可能是我5700xt显卡兼容性问题,第二天买了个2080ti 你得把你的报错信息发一下啊,不然没法帮你
> > > > 怎么跑起来的,不量化? 我报这个:RuntimeError: Library cudart is not initialized 是不是物理机的Linux? 如果是,是否按照pytorch官网按照rocm版本的?(ROCm版本的pytorch无法按照conda方式安装 