hzcm

Results 5 comments of hzcm

![image](https://github.com/PaddlePaddle/PaddleMIX/assets/91120551/b37fab2e-190f-45e5-951b-3f63e5419048) 原来是这样写的

> 你好,图中的那个是支持训练的时候支持json传入参数,例如 python run.py argument.json argument.json如下 > > ```json > { > "batch_size": 1, > "learning_rate": 1e-4 > } > ``` 但是数据大概40g一次性加载过程中会爆内存,预估加载需要300多g内存,所以除了json数据集还支持其他格式吗比如jsonl

您好,非常感谢您的解答,这边还有一些问题,我正在使用单卡 NVIDIA GeForce RTX 3090 训练一个与 SpotMOTS 类似但又有所不同的训练集(数据量差距应该不大)。在训练过程中遇到了一些问题,希望能够得到一些指导。 训练时间问题:与您的训练时间相比,我的训练速度显著较慢,远超过8 倍,单个 epoch 的训练时间甚至达到了 16 小时。这远远超过了我的预期。请问您是否有优化建议,可以帮助我缩短训练时间? 预训练模型的使用:我注意到在使用与您相同的预训练模型时,您的模型在训练的初期能够将 loss 降低到 1 左右,而在与您进行对比时,我的模型经过 6 个 epoch 后,loss 仍然高达 3.0。您能否提供一些建议,帮助我缩小这个差距?或者有什么方法可以更有效地利用预训练模型? ![image](https://github.com/user-attachments/assets/4686509d-b03e-4cb9-9c9b-915d7d067508) 非常感谢您的时间和帮助,期待您的建议!

已经在您的配置中找到预训练脚本了,预训练后应该会在初期就达到比较低的detr_loss

> > 我查看了一下你的训练速度和我在 3090 上的速度,差距应该是在 0.5s/iter 左右,大概有 30% 左右的速度差距。 > > 这里我应该是看错了,我的 log 是在 4090 上的速度。我稍微重新跑了一下,你这个速度在 3090 上应该是比较正常的,我在 3090 上多卡的速度是 > 2.5s/iter,供参考。 好的,我明白了,感谢您的解答