Yu Chen
Yu Chen
直接--resume即可,自动读取最后一个epoch,无需设置start_epoch参数
一般来说我们只训练64×64的模型,然后在此基础上生成256×256的图像。我们最多跑160×160的尺寸,22GB显存。群里有人用10张3090跑了80多个小时的256×256训练
得等我有时间慢慢弄,现在在看着咋搞呢,估计要重写train方法
算力需要大显存,硬性条件。256×256计算量很大,你可以先用64×64的模型跑出来你可以生成最大的图,再自己写个resize方法上采样扩大尺寸吧。 
还有就是用超分算法去扩或者清晰化图像
> > 得等我有时间慢慢弄,现在在看着咋搞呢,估计要重写train方法 > > 作者您好,我看到您在todo list里把实现latent diffusion画上删除线了,请问是不计划做了吗?是因为这个很难实现吗?我也没搜到其他实现class conditional latent diffusion的代码。 其实是可以实现的,之前是因为train方法写的太死,耦合太高了,前段时间刚重构了train方法,现在还没时间继续弄。
仅类别划分就行,比如狗的放一个文件夹,猫的放一个文件夹,一个类别放一个文件夹就可以。不用划分训练集和验证集。生成都是随机的,全靠肉眼看👀
修改image_size为32的倍数
> 好的,谢谢作者!还想咨询一个问题就是我跑了代码,但是我发现只能跑64X64分辨率的,如果我想跑其他分辨率的图片请问要如何修改代码呢? > > > | | > 钟浩 > | > | > ***@***.*** > | > ---- 回复的原邮件 ---- > | 发件人 | Yu ***@***.***> | > |...
可以,但是目前使用DDPM和DDIM需要足够大的显存,后续发布LDM可节约显存