Dive-into-DL-PyTorch icon indicating copy to clipboard operation
Dive-into-DL-PyTorch copied to clipboard

5.5.1 节 LeNet 全连接层的参数有问题

Open klyue opened this issue 3 years ago • 2 comments

bug描述

self.fc = nn.Sequential(
            nn.Linear(16*4*4, 120),
            nn.Sigmoid(),
            nn.Linear(120, 84),
            nn.Sigmoid(),
            nn.Linear(84, 10)
)
第二行nn.Linear的第一个参数是不是应该是16*5*5
英文版的对应这一行的代码就是
nn.Linear(in_features=16*5*5, out_features=120),

**版本信息**
pytorch:
torchvision:
torchtext:
...

klyue avatar Oct 31 '20 08:10 klyue

其实没有问题,它这里输入是batch_sizex1x28x28,所以是16*4*4. 英文版的输入可能是batch_sizex1x32x32(或者用了batch_sizex1x28x28, 在第一个卷积中加了padding=2), 因为没看过英文版所以不清楚是哪一种,但98年的LeNet论文输入的图像确实是32x32

jianli-Alex avatar Oct 31 '20 12:10 jianli-Alex

其实没有问题,它这里输入是batch_sizex1x28x28,所以是1644. 英文版的输入可能是batch_sizex1x32x32(或者用了batch_sizex1x28x28, 在第一个卷积中加了padding=2), 因为没看过英文版所以不清楚是哪一种,但98年的LeNet论文输入的图像确实是32x32

感谢,刚开始还以为有问题,原论文用的mnist,每张图像高和宽均是32像素,而本例用的fashion-mnist,每张图像高和宽均是28像素

Desperat1on avatar Jul 19 '22 03:07 Desperat1on