Olalaye
Olalaye
I encountered a flashback while restarting Labellimg to continue annotating the data.   I noticed that this was caused by the classes.txt file...
fix:https://github.com/MegEngine/MegEngine/issues/234 该 API 为 MegEngine Tensor 生成操作相关的 API, 对应文档页面在 [megengine.functional.full](https://megengine.org.cn/doc/stable/zh/reference/api/megengine.functional.full.html) 参考 [《Python 文档字符串风格指南》](https://megengine.org.cn/doc/stable/zh/development/docs/python-docstring-style-guide.html)做了以下修改: - 为了与其他API描述一致,对文字描述做了少量修改。 - 替换掉了 testcode 风格的样例,使用 >>> 标准 doctest 风格。 ## 翻译对比如下: Summary: - Return a tensor...
你好,我看了你的代码,注意到你在每种注意力中都实现了方法(eg: [link](https://github.com/xmu-xiaoma666/External-Attention-pytorch/blob/master/attention/SEAttention.py#L21)),但是并没有调用。请问是需要显式调用吗还是初始化时PyTorch会自动调用