SeeSR
SeeSR copied to clipboard
Training time and the total number of used datasset
你好,最近在复现本工作,有以下几个问题想请教一下 1.请问使用论文中所述的8 NVIDIA Tesla 32G-V100 GPUs总共需要多久的训练时间? 2.论文中说batchsize设置为192,iter为150K,那么train_batch_size和gradient_accumulation_steps这两个参数应该如何设置?我的理解是train_batch_sizegradient_accumulation_stepsGPU数量=192,不知道是否正确。另外arxiv上v1版本batchsize为32,v2为192,差异很大,这两个指的是总batchsize还是每张卡的batchsize,应该以哪个为准。 3.请问训练所使用的数据集裁剪之后总共包含多少图像?对数据集中的原始图像是直接裁剪吗,还是resize后再裁剪 4.LSDIR数据集较大,请问有没有在DF2K数据集上做过实验,LSDIR有包含DF2K的内容吗?
望解答疑惑