Dive-into-DL-PyTorch icon indicating copy to clipboard operation
Dive-into-DL-PyTorch copied to clipboard

本项目将《动手学深度学习》(Dive into Deep Learning)原书中的MXNet实现改为PyTorch实现。

Results 80 Dive-into-DL-PyTorch issues
Sort by recently updated
recently updated
newest added

**bug描述** ```python self.fc = nn.Sequential( nn.Linear(16*4*4, 120), nn.Sigmoid(), nn.Linear(120, 84), nn.Sigmoid(), nn.Linear(84, 10) ) 第二行nn.Linear的第一个参数是不是应该是16*5*5 英文版的对应这一行的代码就是 nn.Linear(in_features=16*5*5, out_features=120), **版本信息** pytorch: torchvision: torchtext: ...

Change `tensor.data` to `tensor.detach()` due to https://github.com/pytorch/pytorch/issues/6990#issuecomment-384680164 `tensor.detach()` is more robust than `tensor.data`.

good first issue

**bug描述** 如题,没有9.7节SSD的内容,包括docs、code **版本信息** pytorch: torchvision: torchtext: ...

现在pytroch中对张量使用view方法后得到的张量和源张量不再共享内存了

**bug描述** 在按照教程2.3.3梯度章节中 “ # 再来反向传播一次,注意grad是累加的 out2 = x.sum() out2.backward() print(x.grad) ” 时我的返回结果是 tensor([[1., 1.], [1., 1.]]) 如图 ![image](https://user-images.githubusercontent.com/34927296/129324138-09c6d8ad-e098-47cf-a798-b4eb49c611d3.png) 请问是我的输入有问题么? **版本信息** pytorch: 1.9.0 torchvision: 0.10.0 torchtext: None ...

**bug描述** ![image](https://user-images.githubusercontent.com/41790869/158048679-88574e58-eea5-4f5a-a25b-47050b0402e7.png) 3.2.1部分代码 ![image](https://user-images.githubusercontent.com/41790869/158048692-1c52cc91-8a11-4fe7-8397-094fd47fb1d4.png) **版本信息** pytorch:1.10.2 torchvision: torchtext: ...

请问第五章的lenet和alaxnet网络中专为全连接层时的4x4和5x5是怎么算出来的? LeNet nn.Linear(16*4*4, 120), AlexNet nn.Linear(256*5*5, 4096),

如题。觉得这本书写的挺好的,想多看看。

这里在return时不需要softmax吗? ```python def net(X): X = X.view((-1, num_inputs)) H = relu(torch.matmul(X, W1) + b1) return torch.matmul(H, W2) + b2 ```