dlcv_for_beginners icon indicating copy to clipboard operation
dlcv_for_beginners copied to clipboard

我发现的一些错误

Open ShangYuming opened this issue 6 years ago • 8 comments

27页 2.1.1 齐性 后,给一个向量缩放一个倍数变换,应该是再变换

ShangYuming avatar Nov 09 '17 13:11 ShangYuming

非常感谢!最近较忙,将本月底前纠错在勘误表里! 谢谢!

yeyun111 avatar Nov 09 '17 14:11 yeyun111

36页 第一行 对应的本征向量 应该是对应的本征值 37页 第6行 对应的横坐标缩放和纵坐标缩放表达不够严谨,坐标轴不能缩放,能缩放的是坐标轴方向的向量 38页 三个矩阵相乘,多余一个5 大兄弟呀,你写的是书,不是博客呀

ShangYuming avatar Nov 09 '17 16:11 ShangYuming

38页 图2-12的注释,分解为分步的,而不是分布的。。。 我在当当买的书,不会是盗版的吧......

ShangYuming avatar Nov 09 '17 16:11 ShangYuming

不会是盗版吧,又不是畅销书……太细致了,感谢您!

yeyun111 avatar Nov 10 '17 04:11 yeyun111

已经更新在勘误中,非常感谢!

yeyun111 avatar Nov 16 '17 14:11 yeyun111

222页 命令应该是--rankdir 而不是 -rankdir 198页 函数hsv_transform中参数名称和函数前注释不同 第六章 实验代码并不能运行,github和书上的代码出入较大

ShangYuming avatar Dec 01 '17 01:12 ShangYuming

您好,有几个不懂得地方麻烦问一下: 在第八章的lenet_train_val.prototxt中, layer{ name: "relu" bottom: "ip1" top: "ip1" } relu是一个激活函数,为什么他的top 和 bottom都是ip1那个全连接层呢?而在第七章中sigmoid激活函数的bottom是全连接层,而top是他自己。 还是lenet_train_val.prototxt中 layer{ name: "ip2" bottom: "ip1" top: "ip2" } 感觉是略过了上面的relu层,不是这个ip2的bottom应该是relu层么?

感觉比较晕,还请您耐心解答。。。

ShangYuming avatar Dec 04 '17 11:12 ShangYuming

您太细致了…… 那几个错我稍后更新,--rankdir那个我印象中argparse应该单杠和双杠都支持的,您要不试一下?…… 代码以github为准,因为有错可以更新 两个都是ip1的relu是inplace relu,不占用额外存储空间,直接在当前存储的空间里直接进行激活,命名那个应该是按照习惯以top为准

yeyun111 avatar Dec 04 '17 12:12 yeyun111