egoist945402376

Results 5 comments of egoist945402376

> I saw this sometimes as well. I think its numerical instabilities. When your ground_truth and fake_data are super close it would end up as 0 in theory, but due...

> 一般来说我们只训练64×64的模型,然后在此基础上生成256×256的图像。我们最多跑160×160的尺寸,22GB显存。群里有人用10张3090跑了80多个小时的256×256训练 佬, Latent方式降低显存功能大概多久能上啊, 很期待_(:з)∠)_. 这样就能生成和训练更大的尺寸了 GitHub上好像没有什么公开可以自己训练的潜在扩散模型. 就你这一家了, 全村的希望

> 得等我有时间慢慢弄,现在在看着咋搞呢,估计要重写train方法 大佬辛苦了

> 一般来说我们只训练64×64的模型,然后在此基础上生成256×256的图像。我们最多跑160×160的尺寸,22GB显存。群里有人用10张3090跑了80多个小时的256×256训练 大佬我刚刚试着在generate.py里把img_size调成256, 直接报OOM, 要64GiB的显存, 而且只能放在单卡上, 用的是ddim, UNET, 预加载的模型是cifar10-conditional-ddim-unet-gelu-numclass10-imagesize64_model.pt, 只生成一张, 请问有什么可以降低需求的方法吗.

哥你这么晚还在. 谢谢哥, 所以一般是生成自己能生成最大的再用torchvision resize就好了嘛.