Dive-into-DL-PyTorch icon indicating copy to clipboard operation
Dive-into-DL-PyTorch copied to clipboard

请问第五章的lenet和alaxnet网络中转为全连接层时的4x4和5x5是怎么算出来的

Open huqitu opened this issue 4 years ago • 3 comments

请问第五章的lenet和alaxnet网络中专为全连接层时的4x4和5x5是怎么算出来的? LeNet nn.Linear(1644, 120), AlexNet nn.Linear(25655, 4096),

huqitu avatar Feb 12 '20 13:02 huqitu

Lenet 应该是55,应该写错了,怎么算出来的?看图啊,图上写的输出的featuremap是165*5

happyhugo avatar Feb 19 '20 14:02 happyhugo

Lenet 应该是5_5,应该写错了,怎么算出来的?看图啊,图上写的输出的featuremap是16_5*5

Letnet论文最后是5x5,但是这里输入尺寸是28x28的而原lenet论文是32x32,所以这里是4x4,参见#28

ShusenTang avatar Feb 19 '20 14:02 ShusenTang

请问第五章的lenet和alaxnet网络中专为全连接层时的4x4和5x5是怎么算出来的? LeNet nn.Linear(16_4_4, 120), AlexNet nn.Linear(256_5_5, 4096),

这个没有什么诀窍,根据输入尺寸和前面的卷积层池化层一步一步算出来的

ShusenTang avatar Feb 19 '20 14:02 ShusenTang

请问第五章的lenet和alaxnet网络中专为全连接层时的4x4和5x5是怎么算出来的? LeNet nn.Linear(16_4_4, 120), AlexNet nn.Linear(256_5_5, 4096),

这个没有什么诀窍,根据输入尺寸和前面的卷积层池化层一步一步算出来的

AlexNet的卷积层最后一层的卷积核大小为13x13,经过MaxPool的结果应该是 6x6,查阅的相关文章中也都是 6x6。但实际运行的结果是 5x5,这里实在不明白

MUFCRyan avatar Mar 12 '22 06:03 MUFCRyan