KG Duan

Results 14 issues of KG Duan

Line39 in eval_image.py: `im = im[off:off + w, :]` then u got centor crop img

hello,大佬,我用`github.com/eric612/MobileNet-YOLO/blob/master/models/mobilenetv2_voc/yolo_lite/yolov3_m2.prototxt`的caffe模型,通过`caffe2ncnn`做转换,转换生成了`param`和`bin`,load_model的时候报错: `layer load_model 3 failed`。 请问您在转化这个caffemodel的时候,做了一些什么预处理吗,我需要做什么改动才能转换成功呢?请指教,多谢~

如果对于一个paddle模型,只想做conv+BN合并,不想做量化,该调用什么接口呢,现在看合并是在quant_opst_static调用的

x2paddle转换onnx2paddle得到模型`model.pdiparams model.pdiparams.info model.pdmodel model.pdparams`这几个模型文件。请问如何操作可以得到可以做离线量化的模型呢?谢谢

lite_valid_places有哪些类型,是否枚举说明一下比较合理?

enhancement

模型来源: caffe 模型说明: 手势关键点检测 模型文件: https://github.com/CMU-Perceptual-Computing-Lab/openpose/tree/master/models/hand 转换过程出错提示如下: ``` paddle.__version__ = 2.0.0-alpha0 Now translating model from caffe to paddle. Total nodes: 107 Nodes converting ... Converting node 107 ... Nodes converted....

Caffe

is it faster and less calculation by the mobilenet on datknet ? and... thank you very much. You got my star.

您好,看到您的demo对我有很大启发,学到很多,在此有三个疑问还望指教: 每个worker都会得到一个loss,这些loss不需要求均值再反传吗? 所有机器分布式训练的目的,是每个机器分别做一个step以加快到达最大step的速度吗,本来多机器是因为训练集分辨率过大,希望通过分布式加大batch_size的,但多机器貌似起不到这个作用? 假如四个机器,每个机器四个卡,那么是不是需要四个卡需要些多gpu训练然后loss求均值,然后四个机器各自做各自的step?

HI,Thank you very much for your work, I can now do bloom-560m inference on single node 4 cards by example, how to use multi-node multi-card (like 4x4x32GB v100GPU) inference bloom-176b?

您好,我在huggingface下载了10b-cn模型的`pytorch_model.bin`等文件。然后使用如下代码加载模型 ```py from transformers import AutoModelForCausalLM, AutoTokenizer from transformers import AutoModel checkpoint = "../models/glm/glm_10b_cn" tokenizer = AutoTokenizer.from_pretrained(checkpoint, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained(checkpoint, trust_remote_code=True) ``` 出现报错: ``` ValueError: Unrecognized configuration class for...