Yu Chen

Results 56 comments of Yu Chen

直接--resume即可,自动读取最后一个epoch,无需设置start_epoch参数

一般来说我们只训练64×64的模型,然后在此基础上生成256×256的图像。我们最多跑160×160的尺寸,22GB显存。群里有人用10张3090跑了80多个小时的256×256训练

得等我有时间慢慢弄,现在在看着咋搞呢,估计要重写train方法

算力需要大显存,硬性条件。256×256计算量很大,你可以先用64×64的模型跑出来你可以生成最大的图,再自己写个resize方法上采样扩大尺寸吧。 ![image](https://github.com/chairc/Integrated-Design-Diffusion-Model/assets/43342212/32411f2f-b61f-4785-97de-7711d730aaaf)

还有就是用超分算法去扩或者清晰化图像

> > 得等我有时间慢慢弄,现在在看着咋搞呢,估计要重写train方法 > > 作者您好,我看到您在todo list里把实现latent diffusion画上删除线了,请问是不计划做了吗?是因为这个很难实现吗?我也没搜到其他实现class conditional latent diffusion的代码。 其实是可以实现的,之前是因为train方法写的太死,耦合太高了,前段时间刚重构了train方法,现在还没时间继续弄。

仅类别划分就行,比如狗的放一个文件夹,猫的放一个文件夹,一个类别放一个文件夹就可以。不用划分训练集和验证集。生成都是随机的,全靠肉眼看👀

修改image_size为32的倍数

> 好的,谢谢作者!还想咨询一个问题就是我跑了代码,但是我发现只能跑64X64分辨率的,如果我想跑其他分辨率的图片请问要如何修改代码呢? > > > | | > 钟浩 > | > | > ***@***.*** > | > ---- 回复的原邮件 ---- > | 发件人 | Yu ***@***.***> | > |...

可以,但是目前使用DDPM和DDIM需要足够大的显存,后续发布LDM可节约显存