tianyunzhe

Results 6 comments of tianyunzhe

Besieds, in 'pbvi', it seems like that you don't use the belief point set expansion proposed by the original paper. Here is my code to expand the belief point set...

> > > 用自己训练的命名实体识别+结巴分词能优化很多大准确率,谢谢作者的贡献 是嘛,我目前从分词,词性标注,命名实体识别,依存分析还是清一色的LTP。

Thank you for your quick reply! The problem is solved with `model.train()`.

您好,感谢您推荐的文章和代码库。我已计算出该模型的AC和MAC数量,并估计了其理论能耗,这表明SNN确实更加energy-efficient。 然而,我有一个实际的问题想请教您:**使用惊蛰训练SNN模型时,单轮耗时远高于结构和参数量完全相同的ANN模型,并且GPU功率也更高**(通过nvidia-smi查看)。测试阶段也面临相同的问题。因此,SNN的耗时更长,功率更高,这似乎与其energy-efficient的特性相悖。我们认为这个问题是由仿真步长T所导致的,但即使我们将T设置为2,这个问题仍然存在。我想请问您: (1)对于SNN在实际训练/测试中的能耗更高的现象,您有什么解释和分析? (2)这是否会影响SNN所具有的energy-efficient特性? 感谢您的耐心阅读和解答,希望不会太耽误您的时间。 补充:我们的模型结构和代码均参考[[使用卷积SNN识别Fashion-MNIST]](https://spikingjelly.readthedocs.io/zh_CN/latest/activation_based/conv_fashion_mnist.html)

好的,我明白了。非常感谢您的及时回复。