strickland
strickland
@jxt1234 感谢大佬回复,明天上班的时候我再看下咋回事。
@jxt1234 不好意思,先前的模型上传不对,已经重新上传。netron可视化以后是这样: 
之前的测试代码看着不像是一个正常的网络。下面这个看起来正常一些: ```python import tensorflow as tf class CustomModel(tf.keras.Model): def __init__(self, idx): super(CustomModel, self).__init__() self.fc = tf.keras.layers.Dense(10, activation='relu') self.idx = idx def call(self, inputs, training=None, mask=None): x = self.fc(inputs) x =...
Hi there. I also encountered similiar issue. It seems there are some compatibility issues between torch and horovod. I have tried to use latest version torch (2.3.0 or 2.2.x or...
感谢回复。没有生效指的是模型大小没有改变,在我所给出的例子当中。`quant_mobilenet`和`mobilenetv3-small-55df8e1f.pth`文件大小没有发生变化。
自己尝试了一下发现模型需要在`tain()`模式下? 这好像与torch原生的API使用有些不一样,按照torch的[文档](https://pytorch.org/blog/quantization-in-practice/),它是在`evel()`下进行PTQ。请问为什么MNN需要在`train()`模式下呢
感谢大佬帮助,我稍后整理一下发到邮箱里。
@jxt1234 大佬,名为 《MNN推理结果异常反馈》的邮件已经发送了,再次感谢热心帮助。
> @stricklandye 请教个不相关问题哈:你是直接tf转mnn格式吗?没有经过通用onnx格式吗?谢谢 是的,我直接将tf转为forzen model,然后转MNN。如果你有tf->onxx->mnn的需求,可以参考一下[ tf2onnx](https://github.com/onnx/tensorflow-onnx) 这个库。
@jxt1234 感谢社区的帮助,TF的推理差异是我有一个细微的地方代码写错。经过验证以后,准确率无误,--keepInputFormat也解决了跳变的问题。 再次感谢,我将 issue关了。