尚yu。

Results 4 comments of 尚yu。

36页 第一行 对应的本征向量 应该是对应的本征值 37页 第6行 对应的横坐标缩放和纵坐标缩放表达不够严谨,坐标轴不能缩放,能缩放的是坐标轴方向的向量 38页 三个矩阵相乘,多余一个5 大兄弟呀,你写的是书,不是博客呀

38页 图2-12的注释,分解为分步的,而不是分布的。。。 我在当当买的书,不会是盗版的吧......

222页 命令应该是--rankdir 而不是 -rankdir 198页 函数hsv_transform中参数名称和函数前注释不同 第六章 实验代码并不能运行,github和书上的代码出入较大

您好,有几个不懂得地方麻烦问一下: 在第八章的lenet_train_val.prototxt中, layer{ name: "relu" bottom: "ip1" top: "ip1" } relu是一个激活函数,为什么他的top 和 bottom都是ip1那个全连接层呢?而在第七章中sigmoid激活函数的bottom是全连接层,而top是他自己。 还是lenet_train_val.prototxt中 layer{ name: "ip2" bottom: "ip1" top: "ip2" } 感觉是略过了上面的relu层,不是这个ip2的bottom应该是relu层么? 感觉比较晕,还请您耐心解答。。。