joe880923

Results 14 comments of joe880923
trafficstars

我知道驗證集適用您提供的generate_mod_blur_LR_bic.py來生成LRblur/LR/HR/Bicubic,依照8種不同高斯模糊去產生,如果以Set5當作驗證集的話則會產生40(5x8)張HR以及40(5x8)張LRblur來當作驗證集。 想請問如果是想要進行測試的話,分別有五個資料集(Set5、Set14、Urban100、BSD100以及Manga109),一樣要去使用generate_mod_blur_LR_bic.py去產生8種不同高斯模糊嗎(以BSD100為例,則會產生出800(100x8)張HR以及800(100x8)張LRblur)?還是就使用BSD100提供的各100張HR以及LR去進行測試就好? 謝謝您!

另外想請問在訓練時提供的訓練資料一樣是提供3450x8張的影像嗎?您在代碼中是dataroot_GT: /data/dataset/research/DIV2K_Flickr2K/HR.lmdb,不確定這邊的HR.lmdb是原始3450張HR影像還是3450x8張的影像。 剛接觸這領域不久,如果有理解不對的地方還請您指點我一下,謝謝。

作者您好,我儲存R特徵圖的code是這樣 test = self.channel_1(f2) #將R特徵圖channel做1*1con讓channel為1 test = np.squeeze(test, axis=2) ndarr = test.detach().squeeze().cpu().numpy() ndarr = (ndarr * 255).clip(0, 255).astype(np.uint8) print("ndarr-------------------", ndarr.shape) print("ndarr dtype-------------------", ndarr.dtype) print("ndarr min/max-----------------", ndarr.min(), ndarr.max()) ndarr = ndarr.astype(np.uint8)...

我原本的理解是如果只使用第一個channel的話會導致資訊流失,依照您給的建議有嘗試過使用第1個channel來測試,如下: first_channel = f2[0, :1, :, :] test = np.squeeze(first_channel, axis=0) ndarr = test.detach().squeeze().cpu().numpy() ndarr = (ndarr * 255).clip(0, 255).astype(np.uint8) plt.imshow(ndarr, cmap='jet') plt.savefig('feature_map.png') plt.show() 印出的結果為 ![image](https://github.com/megvii-research/DCLS-SR/assets/54349027/4b19a468-7f7e-4d2e-b2ab-0b1bc7f52b65) ![image](https://github.com/megvii-research/DCLS-SR/assets/54349027/483d8523-d581-4be1-8db0-f530db366242) 好像更加的不太對的樣子,不太確定我哪邊理解有問題或操作,再麻煩您給我點指導,謝謝您!

作者您好,我是使用已經訓練完後的權重檔案去印出圖片,作者您說的多印幾個是指我針對第一個通道、第二個通道、第三個通道打印出來分別儲存起來的意思嗎?

您好,以上的問題已解決,並且沒有出錯,但卻出現以下狀況 ![未命名](https://github.com/megvii-research/DCLS-SR/assets/54349027/009906f3-e479-4d0d-bb85-d33df76a7cb5) 執行完python3 train.py -opt=options/setting1/train/train_setting1_x4.yml後進行訓練的過程中發生了這個狀況,沒有出現任何的error,但也沒有出現訓練過程,就卡在這裡了。 請問您知道怎麼解決這個狀況嗎? 謝謝您。

您好,我使用 tail -f log/DCLSx4_setting1/train_xxxx.log -n 100 的方式查看訓練過程,但log紀錄卡在最一開始就不動了,但也沒有跳出error的情況發生,我的gpu是使用一張3090,會不會是因為只使用一張導致負荷不了? 感謝您的回答! ![image](https://github.com/megvii-research/DCLS-SR/assets/54349027/65efb186-0cfa-4591-80bf-57c575bede10)

您說的patch size是指yml檔中的GT_size以及LR_size嗎? 預設GT_size=256、LR_size=64,我可以嘗試改成GT_size=256、LR_size=16嗎? 還是一定要GT_size=LR_size*4呢(因為是進行x4的train)?

我將 batch size = 2、GT_size=64以及LR_size=16 train的過程中發生了驗證錯誤的情況,如下: ![image](https://github.com/megvii-research/DCLS-SR/assets/54349027/03ddb9b0-f180-487d-a7af-428cbe273b2c)

將patch size調整後,經過一段時間的train,inter一直卡在了22000,train.log目前的結果如下 ![image](https://github.com/megvii-research/DCLS-SR/assets/54349027/51db2231-4fd9-444f-bcac-c96e426d3822) 補上val.log的情況,去看val.log時,感覺目前是正常在訓練的情況 ![image](https://github.com/megvii-research/DCLS-SR/assets/54349027/873ab677-1d09-409d-8905-6f8291aa6178) 從train.log的過程中發現psnr>20的時候才不會出現validation crash,然後當psnr>26時才會save model,因此去查看train.py的code,,如下: ![image](https://github.com/megvii-research/DCLS-SR/assets/54349027/08a2aa51-6fb2-4803-a16a-48c92496ed62) 想請問一下這麼為甚麼要這麼做? 謝謝您!