fakerhbj
Results
3
comments of
fakerhbj
> @xingyueye 我的整个流程是:opt-->ptq-->qat-->export_onnx 在opt阶段加载预训练模型和官网下载的scale模型,训练完之后生成的模型用于ptq,ptq训练完之后生成校准模型,然后将校准模型地址放到配置文件中,再训练10epoch的qat,现在的结果是可以导出含有qdqnode的onnx模型,但是在去除qdq的代码中报错了,麻烦帮我看看,问题出在哪里?感谢 请问下 我有个疑问 qat出来的模型 是否合并了bn 然后我看qat_export代码里加载qat权重前是合并了bn的 能加载的进去吗
同问 啥时候可以支持下
> > 麻烦问下如果自行训练模型的话需要什么样的硬件资源? > > 单台8卡A800 H800就可以,只是比较慢。与选取的模型大小和数据量也强相关。 >请问四卡A6000行吗