wangzhao88
wangzhao88
作者您好,有一些问题想咨询您,不知您是否有空? (1)请问模型结构的设计是否参考了某篇论文,或者是有处于什么考虑吗,比如为什么第一次拉分支的地方是要先经过15层卷积,第二次拉分支的地方为什么是经过21层,如果分别换成14层和20层会有影响吗? (2)priorbox的设计请问是只针对widerface数据集吗,还是测试过其它数据集或者实景? (3)请问是否采用过FPN或者ResNet,添加后是否有可能效果反而不好呢? (4)请问为什么baseline是16呢?是否是针对widerface数据集上的速度和效果的平衡呢? 如能回复,感激不尽。
您好: 我在caffe的prototxt的上加上了detectin_output层,重新训练,然后转为ncnn模型(没有转no_bn,也没有做量化),然后脚本在写: ncnn::Mat out; ex.extract("detection_out", out); TIME_END("run model"); 的时候,出现了: terminate called after throwing an instance of 'std::length_error' what(): vector::_M_default_append Aborted (core dumped) 这样的错误,请问您知道这是什么原因造成的么? 在caffe的prototxt文件加入的层如下: layer { name: "detection_out" type: "DetectionOutput"...
您好,感谢您的辛苦工作,请问有训练好的blaze face模型吗?我想测试一下这份代码。
您好,目前代码是支持训练固定次迭代,没有val集做early-stop个人认为会难以捕捉over-fitting的情况,请问后续有添加eval.py的计划吗?我自己写了一份eval.py,但是不知道对不对。 此致敬礼,顺颂时祺
hi: After training the rlhf model(actor: pythia-6.9b, reward model:pythia-410M),i evaluate the saved checkpoint by https://github.com/EleutherAI/lm-evaluation-harness,however, it seems that some weights are missing, here is the log: Some weights of GPTNeoXForCausalLM...
您好: 请问可以支持对齐技术报告的reward model的训练模块吗?我想复现一下文中reward model的效果,谢谢。