FFinchR

Results 14 comments of FFinchR

我在使用UIE训练到epoch 1时,也遇到过这个报错,我的解决方法是将Scipy版本降低至1.3.1 `pip install Scipy==1.3.1` 你可以试一下能否解决你的问题

> 您好,请问您对原本的裁减代码有做一些修改吗?您的数据在fine-tuning时是正常的吗? 没有修改,就是直接按multi-class的README.md一步步做下来的,finetune的时候是正常的,想做裁剪的时候出问题了。

> 您好,我使用您提供的版本复现了问题,更新成最新版本的paddleslim可以避免这个问题: > > ``` > pip uninstall paddleslim > git clone https://github.com/PaddlePaddle/PaddleSlim.git & cd PaddleSlim > python setup.py install > ``` 你好,我按照以上步骤更新了最新版本的paddleslim后,遇到了如下报错: > WARNING:root:No module named 'parl' > 2022-11-04...

> PaddlePaddle版本应该没有问题,而且这个warning应该不会影响运行。您还遇到其他问题了吗 不好意思,是我之前操作失误,把训练和裁剪放在一个gpu,导致显存不足; 又因使用的gunicorn部署,没有报出显存不足的错误就跳出。 暂时没有其他问题了,谢谢。

> 能提供一下onnxconverter-common的版本吗? onnxconverter-common 1.12.2

> 这个问题应该是某个onnxconverter-common的infer bug,你可以把导出的onnx的模型进行转化一下,并进行替换 > > 你可以根据下面的下面转化一下 > > ```python > import onnx > fp16_model = onnx.load('fp16_model.onnx') > > fp16_model.graph.value_info[990].type.tensor_type.shape.dim[1].dim_value=1 > > onnx.save(fp16_model, "new_fp16_model.onnx") > ``` > > 同时我们排查一下具体哪个onnxconverter-common版本可用 好的,感谢。

使用pulsar作为federation的话,是不是同时要使用nginx作为proxy? 需要修改哪些配置呢?

fateflow配置如下: ``` { "components": { }, "providers": { }, "default_settings": { "fate_flow":{ "default_version_key": "FATEFlow" }, "fate": { "default_version_key": "FATE" }, "class_path": { "interface": "components.components.Components", "feature_instance": "feature.instance.Instance", "feature_vector": "feature.sparse_vector.SparseVector", "model": "protobuf.generated",...

> 请问下您是怎么部署的1.10版本呢?默认配置是都有的 我是使用的KubeFATE部署的,拉取的官方镜像

@ChrisBamaofan 请问你解决了吗?我遇到了同样的问题 ![image](https://user-images.githubusercontent.com/61258341/236607955-968d0d71-59f1-4f0b-ab30-09a0f184739c.png)