GPU always out of memory while training?
When training RTFNet not use Docker, I run: python train.py in my conda,
but GPU(RTX2080) is out of memory even set batch_size = 1 and num_workers = 1?
############################################################################################# parser = argparse.ArgumentParser(description='Train with pytorch') ############################################################################################# parser.add_argument('--model_name', '-m', type=str, default='RTFNet') #batch_size: RTFNet-152: 2; RTFNet-101: 2; RTFNet-50: 3; RTFNet-34: 10; RTFNet-18: 15; parser.add_argument('--batch_size', '-b', type=int, default=2) parser.add_argument('--lr_start', '-ls', type=float, default=0.01) parser.add_argument('--gpu', '-g', type=int, default=0) ############################################################################################# parser.add_argument('--lr_decay', '-ld', type=float, default=0.95) parser.add_argument('--epoch_max', '-em', type=int, default=1000) # please stop training mannully parser.add_argument('--epoch_from', '-ef', type=int, default=0) parser.add_argument('--num_workers', '-j', type=int, default=1) parser.add_argument('--n_class', '-nc', type=int, default=9) parser.add_argument('--data_dir', '-dr', type=str, default='./dataset/') args = parser.parse_args() #############################################################################################
When training RTFNet not use Docker, I run:
python train.pyin my conda, but GPU(RTX2080) is out of memory even set batch_size = 1 and num_workers = 1?############################################################################################# parser = argparse.ArgumentParser(description='Train with pytorch') ############################################################################################# parser.add_argument('--model_name', '-m', type=str, default='RTFNet') #batch_size: RTFNet-152: 2; RTFNet-101: 2; RTFNet-50: 3; RTFNet-34: 10; RTFNet-18: 15; parser.add_argument('--batch_size', '-b', type=int, default=2) parser.add_argument('--lr_start', '-ls', type=float, default=0.01) parser.add_argument('--gpu', '-g', type=int, default=0) ############################################################################################# parser.add_argument('--lr_decay', '-ld', type=float, default=0.95) parser.add_argument('--epoch_max', '-em', type=int, default=1000) # please stop training mannully parser.add_argument('--epoch_from', '-ef', type=int, default=0) parser.add_argument('--num_workers', '-j', type=int, default=1) parser.add_argument('--n_class', '-nc', type=int, default=9) parser.add_argument('--data_dir', '-dr', type=str, default='./dataset/') args = parser.parse_args() #############################################################################################
There needs to be more than the Cuda memory, and you try it on the 1080Ti or 2080Ti, which has 12G Cuda memory.