darknet
darknet copied to clipboard
我来回答下:始终不明白softmax_layer层反向传播函数backward_softmax_layer()中为什么不用对softmax函数求导?
我感觉作者的意图是,softmax_layer 通常都是最后一层的激活函数, 作者把 softmax 的求导和 loss 放到一起了,你去看loss 的求导就发现 softmax 其实已经算过了,所以 softmax_layer就不处理,所以 softmax 后一定是接上某个loss 的