dlcv_for_beginners
dlcv_for_beginners copied to clipboard
我发现的一些错误
27页 2.1.1 齐性 后,给一个向量缩放一个倍数在变换,应该是再变换
非常感谢!最近较忙,将本月底前纠错在勘误表里! 谢谢!
36页 第一行 对应的本征向量 应该是对应的本征值 37页 第6行 对应的横坐标缩放和纵坐标缩放表达不够严谨,坐标轴不能缩放,能缩放的是坐标轴方向的向量 38页 三个矩阵相乘,多余一个5 大兄弟呀,你写的是书,不是博客呀
38页 图2-12的注释,分解为分步的,而不是分布的。。。 我在当当买的书,不会是盗版的吧......
不会是盗版吧,又不是畅销书……太细致了,感谢您!
已经更新在勘误中,非常感谢!
222页 命令应该是--rankdir 而不是 -rankdir 198页 函数hsv_transform中参数名称和函数前注释不同 第六章 实验代码并不能运行,github和书上的代码出入较大
您好,有几个不懂得地方麻烦问一下: 在第八章的lenet_train_val.prototxt中, layer{ name: "relu" bottom: "ip1" top: "ip1" } relu是一个激活函数,为什么他的top 和 bottom都是ip1那个全连接层呢?而在第七章中sigmoid激活函数的bottom是全连接层,而top是他自己。 还是lenet_train_val.prototxt中 layer{ name: "ip2" bottom: "ip1" top: "ip2" } 感觉是略过了上面的relu层,不是这个ip2的bottom应该是relu层么?
感觉比较晕,还请您耐心解答。。。
您太细致了…… 那几个错我稍后更新,--rankdir那个我印象中argparse应该单杠和双杠都支持的,您要不试一下?…… 代码以github为准,因为有错可以更新 两个都是ip1的relu是inplace relu,不占用额外存储空间,直接在当前存储的空间里直接进行激活,命名那个应该是按照习惯以top为准