Dive-into-DL-PyTorch icon indicating copy to clipboard operation
Dive-into-DL-PyTorch copied to clipboard

本项目将《动手学深度学习》(Dive into Deep Learning)原书中的MXNet实现改为PyTorch实现。

Results 80 Dive-into-DL-PyTorch issues
Sort by recently updated
recently updated
newest added

**bug描述** 没有bug,是书写错误 **版本信息** pytorch: torchvision: torchtext: ... 原文: > state_dict是一个从参数名称**隐射**到参数**Tesnor**的字典对象。 疑似出错的地方: 隐射 => 映射? Tesnor => Tensor?

报错是这一句 **d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size, None, None, optimizer)** 报错如下: **RuntimeError: Tensor for 'out' is on CPU, Tensor for argument #1 'self' is on CPU, but expected them to...

**bug描述** 描述一下你遇到的bug, 例如报错位置、报错信息(重要, 可以直接截个图)等 3.5节fashion-mnist.ipynb ModuleNotFoundError: No module named 'torchtext' **版本信息** pytorch:1.5 torchvision:0.6 torchtext: ...

这本书讲的比较系统,讲的深入浅出,本人获益匪浅,希望后续能有FCN章节的更新。

**bug描述** 描述一下你遇到的bug, 例如报错位置、报错信息(重要, 可以直接截个图)等 您好,9.1和9.2的数据集图片是不是没放上去 **版本信息** pytorch:1.5 torchvision: torchtext: ...

**bug描述** 3.6节train_ch3函数,如果传入的loss已经是求过平均的,train_l_sum每次只累加一个batch的平均值,最后却除以总样本数,打印的loss结果就会很小,例如3.9节的调用。 如果每个batch不一样大(例如Fashion-MNIST设置batch_size=256时,最后一个batch是96),当optimizer=None时,默认的sgd传入batch_size应该会在最后一个batch造成误差,似乎应该使用y.shape[0]。 另外train_ch5是用batch_count,如果batch大小不一致,最后打印的loss也应该会有微小误差。 ```python def train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size, params=None, lr=None, optimizer=None): for epoch in range(num_epochs): train_l_sum, train_acc_sum, n = 0.0, 0.0, 0 for X, y in...

正常copy,出现下面问题,不知道怎么处理,求帮助 def evaluate_accuracy(data_iter, net): acc_sum, n = 0.0, 0 for X, y in data_iter: acc_sum += (net(X).argmax(dim=1) == y).float().sum().item() n += y.shape[0] return acc_sum / n print(evaluate_accuracy(test_iter, net)) --------------------------------------------------------------------------- RuntimeError...

**bug描述** ![2020-11-06 16-43-35 的屏幕截图](https://user-images.githubusercontent.com/35167412/98346142-870a3e00-2050-11eb-84e3-0d3c50df1642.png) `state = None`放在了`for epoch in range(num_epochs)`上. 因此,在新的epoch中,state实际上没有被初始化,而是使用上一epoch最后一次迭代最后一个时间步的state, 这样并不合理. 要把`state = None`放在了`for epoch in range(num_epochs)`下面,`for X, Y in data_iter`上面 **版本信息** pytorch: 1.6.0 torchvision: 0.7.0 torchtext: ...