zzc
zzc
In the "STF" directory, running "mkdir reconstruction ckpt", then downloading checkpoint to the directory "ckpt". Running"CUDA_VISIBLE_DEVICES=0 python -m compressai.utils.eval_model -d /path/to/image/folder/ -r reconstruction -a stf -p ckpt --cuda"
Using “openimages/test/data/” instead of "/openimages/test/data/"
Yes, the checkpoint file is "cnn_xxxx_best.pth" , Download links have been provided in "Readme.md". For example, [cnn_0035_best.pth](https://drive.google.com/file/d/1VUV6_Ws-3X6VZDKkfOVPQel8nr7ecut9/view)
Hi ! The loss curves look fine during training, but get weird results on 1920x1280 images while testing, especially at low bpp. I have not tried on specific data domain...
Supplementally, the training data is randomly cropped to 256x256, and the val data is centrally cropped to 256x256.
Such as apply the transforms like "train_transforms = transforms.Compose( [transforms.Resize([960, 640]), transforms.RandomCrop(256), transforms.ToTensor()])" instead of https://github.com/Googolxx/STF/blob/0e2480434542af1ac9566e903c57ca0d9d9bf954/train.py#L277-L279
你说的应该是CNN中为什么要使用no shift module吧? 因为我对shift操作的理解是:shift的本质是改变感受野,CNN中多层卷积算子的堆叠,已经起到了改变感受野的作用,所以不再需要额外的shift操作;而transformer结构中,每次计算attention都是在固定的窗口内,需要进行shift改变感受野大小,与窗口外的信息进行一定的交互。
抱歉是我弄错了😂,我以为我release的代码对cnn是没有做shift的,但我刚看代码确认了一下,实际上cnn模型里是做了shift的。 我记得当初做过对比实验,结论是:对cnn模型的attention做不做shift差异不大。 所以你理解的对的,应该没必要做shift。
对,是在CLIC 2020 professional validation set的41张图片上进行测试的。 你的意思是说你测试cheng2020的结果整体会偏低?对吧。 我论文里面cheng2020的结果是从[cheng2020的官方代码库](https://github.com/ZhengxueCheng/Learned-Image-Compression-with-GMM-and-Attention/tree/master/RDdata)拿到的结果。 我没记错的话,[compressai官方开源的结果](https://github.com/InterDigitalInc/CompressAI/tree/master/results/image/clic2020-mobile)和cheng2020官方给的那个结果是比较一致的。 因为你是在compressai上测试的,所以我对比了一下你给的结果和compressai的结果,你测试的结果似乎要比compressai上给的结果低了一些。所以我建议你想和compressai的结果对齐?也就是上面那个链接,clic2020 professional validation set的结果应该是在clic2020-mobile这个文件夹下的。 我也不太清楚是哪里的问题导致你测试结果偏低,但你用compressai的pretrained models,应该是要能得到跟compressai里一样的结果? 所以我感觉你在kodak上测试下,看结果能不能和compressai的结果对应上。如果kodak对的上,clic对不上,那应该就是你用的41张clic数据集可能存在一些问题。如果kodak也对不上,那可能就是其他地方的问题了。
2. 我现在找不到当时clic2020的下载链接了,但我在你给的链接上下了数据,跟本地的对比,数据是没有问题的。 1.这个问题,目前就我看到的论文中对clic2020的测试大部分应该都是clic2020 professional validation set,也就是那41张图像。如果我没记错的话,clic2020 professional validation set的结果似乎是和compressai中mobile下的结果能对应上的。确实也比较奇怪吧,具体这里面的原因,我没仔细去测试,所以也不太清楚怎么回事。