mango

Results 41 comments of mango

> ### Reminder > * [x] I have read the README and searched the existing issues. > > ### Reproduction > 有几个问题请教哈: 1 段落之间需要加\n吗 2.如果模型预处理最长能处理4096个token,那么没有样本的长度是不是尽量在4096以内,且稍微小于4096呢 3.一本书处理成多个样本后需不需要shuf打散呢 4.特殊符号,\t ,需要去掉吗 5.有没有想过的资料介绍呢 >...

@yichuangzhang I have the same problem.Please,have you found the corresponding code?

When I entered my consecutive 50 frames , I got 50 frames of images, but the results were terrible ,the output is more ambiguous than the input.why?

找到原因了,我的环境里同时间安装了python3.6、python3.7,运行sh setup.sh时,默认安装在python3.6的环境中,在python3.6中运行正常

> 1. Yi-34B is 01-ai's work: https://huggingface.co/01-ai/Yi-34B. LLaVA finetuned the model based on it. > 2. Recently we find using LLaVA 7B can achieve a relatively good result as Yi-34B....

> 朋友你解决了吗?测试出现OOM。方便的话可以交流一下吗?谢谢。 你好,请问解决了吗?我这边单卡命令python ./tools/test.py configs/TTVSR_vimeo90k.py checkpoints/TTVSR_Vimeo90K.pth --save-path 'save_path' 报错:KeyError: 'TTVSR is not in the model registry' 3张卡运行就不会报这种错

> 尝试一下用分布式启动,GPU指定为1呢? 谢谢,已解决!把模型改成X2超分训练至iter=48k,序列长度是10,日志输出 loss: 0.0099,但是测试结果包含很多类似马赛克的效果: ![frame_0011](https://github.com/researchmm/FTVSR/assets/44860428/c58f7bf1-7095-4e48-83e8-3a6fb52747cc) 请问这是正常的现象吗?我不确定是否还有必要继续训练(总的iters=400k)

> > > 尝试一下用分布式启动,GPU指定为1呢? > > > > > > 谢谢,已解决!把模型改成X2超分训练至iter=48k,序列长度是10,日志输出 loss: 0.0099,但是测试结果包含很多类似马赛克的效果: ![frame_0011](https://user-images.githubusercontent.com/44860428/243536489-c58f7bf1-7095-4e48-83e8-3a6fb52747cc.png) 请问这是正常的现象吗?我不确定是否还有必要继续训练(总的iters=400k) > > 我没有遇到过这个情况,或许等它再训练看看? 你好,麻烦再请教一下显存占用问题,有如下几种设置:(1)x2超分,输入LR尺寸大小是128*128*3,FTVSR模型的num_blocks=60;(2)x2超分,输入LR尺寸大小是64*64*3,FTVSR模型的num_blocks=60;(3)x4超分,输入LR尺寸大小是64*64*3,FTVSR模型的num_blocks=60;(4)x4超分,输入LR尺寸大小是64*64*3,FTVSR模型的num_blocks=30; 在4张A100,每张A100显存40G,这四种设置在训练时,最大显存占用基本一致,都是39.4G左右;且在fix_ttvsr之后,显存也是一直增加,直到39.4G,请问这是什么原因呢?

> 我已经把checkpoint-35000.pt放进文名为mlp_finetune的文件夹了,pytorch_model.bin放在gpt2文件夹,ViT-B-32.pt也放在了pretrain_models下面,可是依然说加载模型报错,请问大家有遇到过吗? > > [报错指向这一行:](https://github.com/yangjianxin1/ClipCap-Chinese/blob/master/predict.py#L129) > > raise RuntimeError('Error(s) in loading state_dict for {}:\n\t{}'.format( RuntimeError: Error(s) in loading state_dict for ClipCaptionModel: Missing key(s) in state_dict: "clip_project.model.0.weight", "clip_project.model.0.bias", "clip_project.model.2.weight", "clip_project.model.2.bias". Unexpected...

@xinntao 请问两个阶段的训练iter/epoch分别设置多少呢?算力资源是怎样的?