Parametric-Leaky-Integrate-and-Fire-Spiking-Neuron icon indicating copy to clipboard operation
Parametric-Leaky-Integrate-and-Fire-Spiking-Neuron copied to clipboard

请教一下原文中公式的问题

Open Taotaonoangry opened this issue 1 year ago • 2 comments

作者 您好 image image 在阅读您的文章时,我也试着自己推了下这个公式。链式图是这样的, image

想请问一下这个a是不是也应该分a[t-1]和a[t]呢 为什么不需要对t时刻的a求导呢

Taotaonoangry avatar Sep 15 '23 03:09 Taotaonoangry

实际上是需要的,最终a的梯度是所有a[t]梯度之和。在论文里面直接写了求和式,跳过了这一个中间步骤。方法类似于《深度学习》一书中介绍BPTT如何对W求梯度时用的方法: image

fangwei123456 avatar Sep 15 '23 03:09 fangwei123456

image 在PLIF神经元的CUDA内核中,梯度计算按上图 https://github.com/fangwei123456/spikingjelly/blob/master/spikingjelly/activation_based/neuron_kernel.md

fangwei123456 avatar Sep 15 '23 03:09 fangwei123456