llliiiu
llliiiu
> prog_bar = tqdm(enumerate(train_data_loader)) 如果是这一行卡住的话,是因为filelists/train.txt, filelists/val.txt, filelists/test.txt没配置好,导致Dataset死循环 > > 检查Dataset.__getitem__方法,卡在while(1)里面,while(1)得到一个错误的输入直接continue... 请问这个是什么意思呢?
> prog_bar = tqdm(enumerate(train_data_loader)) 如果是这一行卡住的话,是因为filelists/train.txt, filelists/val.txt, filelists/test.txt没配置好,导致Dataset死循环 > > 检查Dataset.__getitem__方法,卡在while(1)里面,while(1)得到一个错误的输入直接continue... 请问,txt文件应该怎么配置?不是数据集在的路径吗?
> 1,请教下,使用自己做的LRS2数据集训练之后,训练了好几天,每一个生成的checkpoint都是一样大的 为啥checkpoints会不一样大? 2,而且我没有发现训练日志,不知道应该选择哪个checkpoint,有什么方法吗 自己写一个logging 3,最后,感觉有点点不友好,训练时看不到还需要多长时间,我2分钟视频训练了3天都没结束 训练到了感觉差不多了就按ctrl+c结束 请教一下,自己做LRS2数据集的步骤是什么啊?我按照github上wav2lip的格式做了一个数据集,但是在运行color_syncnet_train.py时陷入死循环了。期望收到您的回复,十分感谢!!!
> 我解决了这个问题 原因是一个人物下数据太多了 请问一个人物下数据太多指的是什么意思啊?
> 您好,不知道您指的小样本微调大约是多少数据量,目前我们下游跨模态检索实验中数据规模最小的为COCO-CN数据集,大约有18k训练样本,目前暂时没尝试过更小规模的数据微调的表现。 通常来说,在某一数据集上集中微调后可能会影响其他不同分布的数据集的效果,但在这方面我们没有进行更多的实验。您可以关注下模型是否过拟合小样本,也可以关注一下大模型灾难性遗忘和增量学习等相关的资料。 对于连续微调,不知道是不是可以尝试一下将所有数据(例如成都重庆总和)集中进行微调来代替连续微调看看效果。 您好,我使用4000张图像进行微调后,将一张图和一个文本(人工判定不匹配)进行相似度测试,测试结果显示相似,这是什么原因呢?