wintercat1994
wintercat1994
> same issue I solve this issue, when I run the training with nohup it will break, but with tmux it won't
又过期了。。
同样两张图在hugface和本地的测试效果:  ![Uploading 截屏2024-07-25 15.03.47.png…]()
> @wintercat1994 我后面有空的话会把 github 的效果对齐到 huggingface 的版本, 不过你得等我一下. 好的好的,辛苦您了,多谢~
> > @zgdjcls > > 好像图像匹配部份也有点不一样 https://huggingface.co/spaces/xuelunshen/gim-online/blob/main/hloc/matchers/gim.py 在线模型里面我加了一些 padding 的操作, GitHub这里没加. > > 然后, 在线模型的robust fitting可能是在这里 https://huggingface.co/spaces/xuelunshen/gim-online/blob/8b53ab6e398081d33fab94ca6b57c50318affbef/common/utils.py#L187 直接去估计Homography了 > > 感谢,我仔细拜读一下 您好,请问您这边有复现online demo的效果了吗
> > wintercat1994 > > 在用online版本后效果的确和网页版一致 感谢,想向您请教一些细节,您使用online版本是直接用online版本代码在服务器上跑,还是把online版本的padding和robust fitting替换掉github里的代码?非常感谢您的回复
> 我当时是把他的online版本下载下来然后自己写了一个测试程序,直接放在了根目录下(与app.py同文件夹),你可以试试能不能跑,代码很久之前写的了 > > ``` > import os > import random > > import matplotlib.pyplot as plt > import numpy as np > import torch > from itertools import combinations...
> > > [@JackeyHRan](https://github.com/JackeyHRan) transformers 4.45.1 遇到了同样的问题,降级到4.40.0似乎可以正常保存权重 > > > > > > 感谢,我去尝试一下 > > 请问降到4.40.0能够解决default_config问题吗,我试了一下会报新的错误ImportError: cannot import name 'HybridCache' from 'transformers.cache_utils',可能跟liger_kernel版本有关,请问您降transformers后有改liger_kernel版本吗,谢谢 我也遇到cannot import name 'HybridCache' from 'transformers.cache_utils'这个问题,请问您解决了吗
> 如果有answer的话最好还是基于模型采样一个推理过程来构建正负样本对,因为MPO能work的原因其实是更好地引入了针对负样本的监督信号,从而帮助模型修剪自己的分布空间,更接近理想的分布空间,只有答案的样本很难起到这个效果 非常感谢您的回复,我的意思是,我是否可以基于模型推理过程构建不含cot的正负样本对,然后用于MPO训练?因为我看到paper中的结果都是有cot的正负样本对