ShengKun Yan

Results 4 comments of ShengKun Yan

Hello, I'm currently experiencing the same problem, how did you solve it?

为什么out.log里的anchor大小比bitstream里的anchor.pkl小了一倍 ![image](https://github.com/YihangChen-ee/HAC/assets/139631602/f6fc60a3-2bda-45b4-81a2-b380e1a77dd7)

> 你好,点的位数没变,但是其信息熵通过我们的hash feature的预测降低了。信息熵降低后才可以利用算术编码实现编码压缩。 你好。方便解答一下我上面提的关于anchor文件大小的问题吗?谢谢

> 你好,我们的工作对anchor采用16位的量化方式,那么在计算anchor的size的时候每个参数的size是16bit。在实际存储时为了方便,是16位量化后直接用torch保存的,这时候默认的保存格式是float32,但是实际上已经16位量化过了。因此出现了两倍的情况。你可以修改保存相关的代码,让pytorch保存为float16,这时候应该就是大小一致的。 > > 祝好 好的。谢谢哥们。