jnulzl
jnulzl
> 最新版本代码里函数get_affine_transform得到的仿射变换矩阵似乎不太准确,我试着用该函数以及实时获取的5个人脸关键点得到仿射变换矩阵,用该矩阵的数据创建一个新的基于opencv的Mat类型对象,然后再带入opencv的warpAffine函数去对人脸图片做仿射变换,最后送入人脸识别网络后识别率比较低。而同样的实时获取的5个关键点,用opencv的estimateAffine2D函数去获取仿射变换矩阵后,再带入opencv的warpAffine函数去对人脸图片做仿射变换,最后送入识别网络后识别率就比较高。 src和dst反了? ncnn的warpaffine默认是inverse的 @nihui 看起来get_affine_transform好像确实不太对,无论是src->dst还是dst->src很多组数据都跟opencv的不一致(也有一致的),我写了个测试代码见:[test_ncnn_affine.txt](https://github.com/Tencent/ncnn/files/9398711/test_ncnn_affine.txt) 下面是我写的getAffineTransform,多次测试跟opencv的结果都是一致的,包含在上述测试代码中,可选择性参考。 ```cpp void getAffineTransform(const float* points_from, const float* points_to, float* trans) { /** * [ * trans_x1 trans_x2 trans_x3 * trans_y1 trans_y2 trans_y3 *...
@yeahkun https://github.com/yeahkun/caffe-yolo/blob/eea92bf3ddfe4d0ff6b0b3ba9b15c029a83ed9a3/src/caffe/layers/detection_loss_layer.cpp#L56 从这行代码以及后面的可以看出,训练数据中每个cell都有(1+1+1+4)个标签,第2个表示是否包含object(0/1),第三个表示object类别(0,1,2,...19),最后四个表示(x,y,w,h)。那么第1个表示啥?貌似没有用到
## 软件环境如下所示: ```shell absl-py==2.1.0 accelerate==0.17.1 aiohttp==3.9.3 aiosignal==1.3.1 async-timeout==4.0.3 attrs==23.2.0 bitsandbytes==0.37.1 certifi==2024.2.2 charset-normalizer==3.3.2 cpm-kernels==1.0.11 datasets==2.18.0 dill==0.3.6 filelock==3.13.1 frozenlist==1.4.1 fsspec==2024.2.0 grpcio==1.62.0 huggingface-hub==0.21.3 icetk==0.0.4 idna==3.6 importlib-metadata==7.0.1 Jinja2==3.1.3 Markdown==3.5.2 MarkupSafe==2.1.5 mpmath==1.3.0 multidict==6.0.5 multiprocess==0.70.14 networkx==3.2.1...
refer this #https://github.com/HolidayXue/CodeSnap/issues/2
https://github.com/clavichord93/diagonalwise-refactorization-caffe/blob/219d4f5766c4465b6de7bbddae16178c7adc1cac/src/caffe/layers/base_depthwise_layer.cpp#L110 @clavichord93 你好,我看你caffe.proto中的参数ConvolutionParameter ,multiplier 是整型(uint32),所以在base_depthwise_layer.cpp中conv_out_channels_貌似就不会变小了?例如:假设我的conv_in_channels_为1024,我如果想将conv_out_channels_减小到512就没法通过conv_out_channels_=channels_ (1024)* multiplier_(0.5)设置,将multiplier 改成float是否更加合适?
如题, **Step1:将原始LLaMA权重转换为huggingface版本。** 成功,但是 **Step2:使用[解密脚本](https://github.com/icalk-nlp/EduChat/blob/main/decrypt.py)将增量权重加到原始LLaMA权重上。** 失败 错误如下所示: ```python Traceback (most recent call last): File "../EduChat/decrypt.py", line 175, in apply_delta(args.delta_path, args.target_model_path, args.base_model_path) File "../EduChat/decrypt.py", line 140, in apply_delta base = AutoModelForCausalLM.from_pretrained( File...