Kaidong Zhang
Kaidong Zhang
Please check the `vit_name`, and it should `vit_b` if you don't use SAMed_h. Otherwise, it should be `vit_h`.
你好,epoch_159指的是我们在模型微调到第159个epoch的时候保存了LoRA的参数。如果你需要自己微调的话,是需要自己从头训练LoRA部分的。其次,我们发现warmup对模型收敛十分重要,当然你可以调一调学习率使得模型收敛,但是似乎不及warmup有效。
你好,我很高兴我的代码可以帮助你们在你们的任务上取得很好的结果~ 至于SAMed_h,我已经上传相关代码到`SAMed_h`文件夹下(就在本仓库根目录里面,有个`SAMed_h`文件夹),具体的代码实现以及训练和测试的流程请到该文件夹下查看。
并且请注意一点,SAMed_h需要的计算资源更大,我们使用一块Tesla A100 (80G)进行训练。如果你的计算资源有限,请不要盲目使用SAMed_h,即使SAMed_h可以取得一个更好的结果。
我觉得这个可能是你配置的时候哪些地方有问题,本仓库的代码不需要改可以直接进行训练和测试。你check一下数据路径?
1. Your model may fail to converge. 2. This is a legacy, please ignore this operation.
We trained SAMed_h on one A100, whose memory should be equal to four 3090s GPUs. What's the exact problem in your case? Our of memory?
Q1: This is a legacy for debug. It just restricts the data range. Q2: We have released the entire preprocess scripts in the [preprocess](https://github.com/hitachinsk/SAMed/tree/main/preprocess) directory.
您好,训练数据最好做一下clip,我并没有对训练数据做扰动。
其实不是,为了公平比较,基本上保存的模型是最后的模型。其实模型只要收敛就行了,训练到后面的话我们发现多训练几次少训练几次对性能差距影响可能很小。