fangwei123456
fangwei123456
Hi, I just fix this bug. You can try again.
Hi, I suggest that you can print the codes of the kernel (by the attribute `.code` (https://docs.cupy.dev/en/stable/reference/generated/cupy.RawKernel.html#cupy.RawKernel.code) ) before calling and check the CUDA codes.
You can try to call this kernel manually (by CuPy rather than functions in SpikingJelly) and check if it raises some errors.
1D卷积在单步模式下,输入`shape=[N, C, L]` 多步模式下,处理的数据是一个序列,需要新增一个时间维度 SJ框架把时间维度放到第0维。如果放到其他维度,某些层的速度会下降很多,但也可以这样做。这种情况下,你需要重写一些自己用的层
现在增加了几个包装器,可以使T在最后一个维度了,并且在pytorch>=2.0版本能并行加速 https://github.com/fangwei123456/spikingjelly/commit/880f589d1e75d0279d8e16a3d4e5f15a9db63b18
可能是原生的LIF的jit函数导致的 建议把你自行实现的LIF,基类换成 https://github.com/fangwei123456/spikingjelly/blob/c21e21cf3679cf5edc344e949eb160f13db2b55b/spikingjelly/activation_based/neuron.py#L70
这个应该不是bug,spiking lstm可能性能本身会比lstm低很多
Hi, I do not know how to use FPGAs. We can wait for someone who knows it to answer this question.
可以这样,因为原始的torchvision中的图片处理方法并不支持数据多一个时间维度
有空应该在框架里面加一些函数使得能兼容