leoluopy
leoluopy
after reinstall all the python environment , the problem is sovled
Hi , @wangjinpeng9521 @WongKinYiu regards i haven't found the shuffle operation either , do anyone have the idea of shuffle operation while inference in test time .
> what are the main differences between v2 and v1 ? and is the pretrained model afforded ? > are they training scales or some thing else ? v1 -...
@yuye2133 是的,思路应该是这样,就是里面的模型更新过程,梯度传递,要怎么弄需要考虑,现有框架不知道是否能直接稍加修改支持。
@xubuvd 这是哪一个仓库呀?有相关的链接吗?然后它有关于chatglm的模型的实现吗?
@ssbuild 求大佬指点。
ptuning v2 和 lora 以及 冻结 N 层, 从经验上讲谁效果更好,或者哪些场景下更适合哪种方法 ?
是的,不平衡也是重要原因,loss 其中两部分,一部分是有对象贡献的loss .一部分是无对象贡献的loss . 神经网络调整参数以求得最小loss. 无对象loss比例越大,神经网络在这个方向上参数调整就越多。这部分loss越大,预测得到的这个方向结果就越多。有对象的网格出现漏检的概率就越大。
in this repository , 224x224 is preferred
在yolov3中有三幅feature map , 13x13,26x26,52x52,和原图比如416x416的对应关系是直接线性对应。