samchild
Results
1
comments of
samchild
> 反向传播是用下一层的误差项来推算本层的误差,从右至左逐层推算,所以 > self.W_grad = np.dot(delta_array, self.input.T) > self.b_grad = delta_array > 这两行代码没有问题,但是上一行代码 > self.delta = self.activator.backward(self.input) * np.dot(self.W.T, delta_array) > 我觉得是有问题的,本层的误差应该用本层的输出和下一层的误差来计算,但是这行代码却用本层的输入来计算,这个和公式-8是冲突的,我觉得正确的应该是 > self.delta = self.activator.backward(self.output) * np.dot(self.W.T, delta_array) >...