lalala

Results 12 comments of lalala

已经 2023.4.18 了,Rust 都出 1.68 了,内容应该要更新了吧?

我这里纯CPU可以跑推理,但是跑训练会出错…… 具体可以看这个:https://github.com/RVC-Boss/GPT-SoVITS/issues/290 我这里还顺便删除了 webui.py 的 cuda 判断才可以运行 webui.py……

> 我这里纯CPU可以跑推理,但是跑训练会出错…… 具体可以看这个:#290 我这里还顺便删除了 webui.py 的 cuda 判断才可以运行 webui.py…… 说得不准确,其实不用删除 cuda 判断的…… 但我记得好像纯 CPU 推理的话是不用动任何文件的吧……见 https://github.com/RVC-Boss/GPT-SoVITS/issues/373

> > 修改完后即可支持 Linux 下纯 CPU 的训练和推导。 但是这是一个破坏性更新。 修改完后会导致 MacOS 不能正常使用。 > > 希望大佬们修改修改。 > > 另见 #373 > > 我尝试用mac跑了跑训练,后面我修改了一下代码,让他变成了纯CPU训练,即使有N卡,不知道楼主说的mac不能使用是指不用MPS还是会报错? 刚刚拉到最新版本看了一下,可以直接 cherry-pick,请问「修改一下代码变成纯 CPU」是碰到了什么问题吗? Linux 下无法训练是因为 Windows 和 Mac 会默认使用...

现在 cpu 训练和推理已经合并进主代码里了,别人的 PR。 但是是以一种我没想到的方式,禁用 mps 性能反而提高了……

It can't work in my computer. ```bash -` lalala@lalala-arch .o+` ------------------ `ooo/ OS: Arch Linux x86_64 `+oooo: Kernel: 6.8.7-arch1-1 `+oooooo: Uptime: 7 days, 54 mins -+oooooo+: Packages: 2421 (pacman) `/:-:++oooo+:...

Yeah, there are many differences between Archlinu and Ubuntu. ```bash % pacman -Ss jemalloc extra/jemalloc 1:5.3.0-3 [installed] General-purpose scalable concurrent malloc implementation % pacman -Ss intel-mkl extra/intel-oneapi-mkl 2023.2.0_49495-2 [installed] Intel...

@LynxPDA 1. 8 -> 4 don't affect the speed. 2. There is little change in performance. 3. `ldd./webui.sh` gives the error `not a dynamic executable` If I add NO_TCMALLOC="True" ',...

> 第一种方法,可以下载整个源码,然后在vs中编译;第二种方法是下载Ournotepad.zip,并解压,里面有主程序。 谢谢,已经可以用了。 我还有两个想法和一个问题,不知道您是否可以看看。 想法1:您的OurNotepad里并没有语言选项,所以我在notepad++里下载了便携版,并把localization文件夹放在了目录底下,于是便可以使用中文了。 但是里面还有一个选项叫台湾繁体,我把这个文件的英文名按照作者的命名方式改为chineseTraditional.xml,并修改了里面的信息:把台湾繁体改为繁体中文,文件名也改了,但是语言选项里出不来了,希望您能把它加入回去。 想法2:如果您有空的话,可以OurNotepad升级至最新版本吗?(当然,如果这回使你花费太多时间和精力的话,当我没说) 问题:有什么方式可以让OurNotepad绑定大量文件格式吗?(反正就是让它变得更好用) 谢谢观看,祝你幸福。