Efficient-Computing icon indicating copy to clipboard operation
Efficient-Computing copied to clipboard

Efficient computing methods developed by Huawei Noah's Ark Lab

Results 51 Efficient-Computing issues
Sort by recently updated
recently updated
newest added

Hello, I read you paper in CVPR 2022 impressively. Instance-Aware Dynamic Neural Network Quantization And, I try to re-implement your framework and find your open code repository. In this paper,...

你好,我想问一下“Instance-Aware Dynamic Neural Network Quantization”这篇论文的代码公布在哪里了,在paperwithcode跟着连接过来但是找不到了

您好,想请问您在celeb数据集上进行实验时,各loss的系数是如何设置。另外这些超参数的设置有什么技巧吗?谢谢。

您好,最近在拜读你们发表在CVPR 2021的文章 *Data-Free Knowledge Distillation For Image Super-Resolution*,在其中对于图像生成器的论述有一段是`where x is the training sample and p_x(x) is the distribution of the original dataset.`,但是我好像并没有在文中看到这里原始数据集的分布 p_x(x) 是从哪里获得或者计算或者设定的,也好像在你们的仓库中并没有看到对应这篇文章的源码,也可能是我学艺不精看漏了。 因此想请问一下你们,这部分的原始数据集分布p_x(x)是从哪里得到的呢?

你好,最近拜读了你的几篇关于知识蒸馏的论文,是很好的工作。 想请问一下你的两篇工作,CVPR2021 ‘Learning Student Networks in the Wild’和ICCV ‘Data-Free Learning of Student Networks’ 在训练学生网络的时候是否有用到ImageNet上的预训练模型呢 在原论文中没有看到相关的描述,也可能是我没注意到

介绍是 无需训练数据的网络压缩技术 DAFL 但我在看代码的时候发现 在 DAFL-train.py中 有 行代码为 ``` teacher = torch.load(opt.teacher_dir + 'teacher').cuda() # 获得教师网络 ``` 而此处的teacher 是加载的 teacher-train.py 中保存的代码,请问是否需要先训练teacher ,然后再根据teacher 训练student 对于这篇论文我的理解是 先创建一个大参数网络teacher,然后再定义一个小网络student,再利用一个生成器Generator,将随机数转换为图片格式, 经过teacher和student 两个网络不断拟合结果,让student和teacher的输出尽量一致.最终保存student作为压缩网络. 但是 下面 的代码我又没看太懂,想哭...

Your paper is very instructive. Can you provide a training model to test it? Thank you! It would be better if there were more detailed steps to reproduce the operation....

Hello,what do these two parameters mean and what do they do?Thanks!

I follow your work in Gold-yolo, and use the commond to train a teacher model ,then use the self-distill commond to train student model. But the cwd_loss is 0, as...

How should I visualize the results