Dive-into-DL-PyTorch
Dive-into-DL-PyTorch copied to clipboard
请问第五章的lenet和alaxnet网络中转为全连接层时的4x4和5x5是怎么算出来的
请问第五章的lenet和alaxnet网络中专为全连接层时的4x4和5x5是怎么算出来的? LeNet nn.Linear(1644, 120), AlexNet nn.Linear(25655, 4096),
Lenet 应该是55,应该写错了,怎么算出来的?看图啊,图上写的输出的featuremap是165*5
Lenet 应该是5_5,应该写错了,怎么算出来的?看图啊,图上写的输出的featuremap是16_5*5
Letnet论文最后是5x5,但是这里输入尺寸是28x28的而原lenet论文是32x32,所以这里是4x4,参见#28
请问第五章的lenet和alaxnet网络中专为全连接层时的4x4和5x5是怎么算出来的? LeNet nn.Linear(16_4_4, 120), AlexNet nn.Linear(256_5_5, 4096),
这个没有什么诀窍,根据输入尺寸和前面的卷积层池化层一步一步算出来的
请问第五章的lenet和alaxnet网络中专为全连接层时的4x4和5x5是怎么算出来的? LeNet nn.Linear(16_4_4, 120), AlexNet nn.Linear(256_5_5, 4096),
这个没有什么诀窍,根据输入尺寸和前面的卷积层池化层一步一步算出来的
AlexNet的卷积层最后一层的卷积核大小为13x13,经过MaxPool的结果应该是 6x6,查阅的相关文章中也都是 6x6。但实际运行的结果是 5x5,这里实在不明白