darknet icon indicating copy to clipboard operation
darknet copied to clipboard

我来回答下:始终不明白softmax_layer层反向传播函数backward_softmax_layer()中为什么不用对softmax函数求导?

Open rockyzhengwu opened this issue 4 years ago • 0 comments

我感觉作者的意图是,softmax_layer 通常都是最后一层的激活函数, 作者把 softmax 的求导和 loss 放到一起了,你去看loss 的求导就发现 softmax 其实已经算过了,所以 softmax_layer就不处理,所以 softmax 后一定是接上某个loss 的

rockyzhengwu avatar Jul 05 '20 06:07 rockyzhengwu