TinyQi
TinyQi
我也想问这个问题,感觉不止这一处
I have tried https://github.com/hpcaitech/ColossalAI/issues/2771 ,but doesn't work for me.
谢谢你的回复 @mrwyattii ,我已经更新了最新的代码,但是仍然存在问题 一开始因为“^M”的问题,我无法运行脚本,所以我将“^M”去除后,继续运行,命令为:python train.py --actor-model facebook/opt-1.3b --reward-model facebook/opt-350m --deployment-type single_gpu。 然后还是发生了错误,错误信息如下: (deepSpeed) [root@gpt_xcq DeepSpeed-Chat]# python train.py --actor-model facebook/opt-1.3b --reward-model facebook/opt-350m --deployment-type single_gpu ---=== Running Step 1 ===--- Running: bash...
> If you want to add arguments to the training such as the ones you list above (e.g., --gradient_checkpointing) you'll need to add them after `main.py` in the script for...
> 你的问题解决了吗哥们,我和你出现的问题一样 木有呀,你解决了不
@oylz Hello, could you please show your onnx converting code? Thanks a lot.
> 一般使用训练数据数据就可以,另外请问下压缩方法使用的是什么? 我用我自己的训练集,大概只有1000张左右,压缩之后模型的精度很差。 前几个iter的时候还至少有一点精度的,如下图  到后面就变成这样了 
> 一般使用训练数据数据就可以,另外请问下压缩方法使用的是什么? 我使用的压缩方法我也不太清楚,就是按照你们的文档,简单修改了数据集和模型的地址,学习率我也按照batch_size和GPU卡数进行了调整。下面是我的配置文件,麻烦您看看是不是有什么问题: Global: model_type: det model_dir: /share/disk3/xcq/02.model_cache/pretrain_models/ch_PP-OCRv4_server_det_guding_shuru_1_output_bak/ #固定输出 model_filename: inference.pdmodel params_filename: inference.pdiparams algorithm: DB Distillation: alpha: 1.0 loss: l2 QuantAware: use_pact: true activation_bits: 8 is_full_quantize: false onnx_format: True activation_quantize_type:...