7aughing

Results 9 comments of 7aughing

> Is this setting required?and is it also required when the transformed Keras model is loaded? hi, did you solve the problem?

> ![image](https://user-images.githubusercontent.com/36984088/93664152-65082c80-fa9f-11ea-8fab-7179c6927972.png) > ![image](https://user-images.githubusercontent.com/36984088/93664156-6b96a400-fa9f-11ea-854f-bfeaacd6f5d4.png) > ![image](https://user-images.githubusercontent.com/36984088/93664158-6fc2c180-fa9f-11ea-8f7e-bfa89c7dbfbb.png) > > 第一张:使用自己训练模型转ONNX,在转MNN,端侧结果 > 第二张:使用官方提供的MNN模型,在端侧结果 > 第三张:使用自己训练模型转ONNX,在服务端结果 > > 通过对比第一张和第三张图片结果发现MNN模型结果和服务器上ONNX模型结果相差较大(预处理都是相同的,否则使用提供的MNN模型结果不会对),所以想问问作者是如何得到MNN模型的,我看了MNN文档中它不支持空洞卷积,作者是自己在MNN中定义了这个算子吗?期待作者的回复,非常感谢! 如果使用slim模型,建议你详细对比下作者repo中onnx推理部分和mnn推理部分的代码,然后修改下mnn推理部分。(我只对比slim模型,mnn可以得到和onnx推理结果一致的结果)

> look at the graph of the model after `prepare(onnx_model)`, and you will most likely be shocked by what you see Truly, add too many transpose node in tflite

> 训练数据处理部分建议修改一下,改成保证截取为正方形的情况下随机扩边,不同人脸检测器得到的框不一致会使得关键点效果很差,修改完后效果会有明显提升! 我也遇到这个问题了,输入的face crop 不同,效果差距很大,可以向您请教下是如何解决的吗?

我后续在转别的模型到tflite的时候,也遇到了这个问题,可能是环境的问题。我会按您的建议再试一下,谢谢!

sorry, when I run the testing script to generate videos from audio use the modified code, I still face the following mistake: Traceback (most recent call last): File "test_all.py", line...

when I remove the code ` if require_audio: # ipdb.set_trace() k4 = 0 for mfcc_num in pair: # for s in range(-1,2): mfcc_path = os.path.join(path, str(mfcc_num) + '.bin') if os.path.exists(mfcc_path):...

@Hangz-nju-cuhk Sorry, I just comment out "else: raise ("mfccs = 0")", I thought after loading all the audio files, the code will raise an error rather break the for loop...