HexBanana
HexBanana
从你的电脑目录看,我猜你应该说中文,所以我就用中文和你交流了。你可能没有下载scipy这个库,所以我建议你运行pip install scipy或者在项目根目录下运行pip install -r requirements.txt以下载依赖项。希望能解决你的问题。
作者,我想请教一下batchsize多少比较合适?我用的64试下来效果还不如32收敛快
可以继续别人的模型训练的,但是效果如何不好说
训练时python synthesizer_train.py 后会跟一个模型名字,把模型名字改成和别人的模型一样,就可以做到你的"迁移训练“了
检查一下你的pytorch版本,pytorch如果是cpu版本就改成cuda版本,其他issue里也有类似的问题,可以看一下和你遇到的问题符不符合。我也遇到了这个问题,网上搜是最新版的bug,我选择的办法是降级,用pytorch1.11配cuda11.3,希望能帮到你
就是没空间了
补充一下,使用的最新版本,训练 0.0.1版本用不了
你用的是自己的数据集吗,如果是自己的数据集mockingbird目前还不支持,如果是支持的数据集那么检查文件结构。确保所有压缩文件都解压了
> > aidatatang_200zh训练集 > > 请问batch_size是多少跑的 过拟合有改batch_size继续跑吗 batchsize0-10k用的32,10k-15k用的64,发现效果不理想后改成50训练到20k
> > aidatatang_200zh训练集 > > 请问batch_size是多少跑的 过拟合有改batch_size继续跑吗 我现在正在重新训练新模型,可能是运气好,这次的模型3.5k就出现注意力模型了,8k loss就0.4了,可以期待一下