Ma-Dan

Results 23 comments of Ma-Dan

我打算用gensim这样的试一下,它的基础思路是词向量距离 https://medium.com/rasa-blog/do-it-yourself-nlp-for-bot-developers-2e2da2817f3d 后半部分,它的NER方法是序列标注方法之一Structured Learning中的Structured SVM。 这些都在MITIE中一起提供了。使用其他工具,就需要将配合的组件都整合到一起。

On FireFox, is .tar and .gz now, should be .gz and .tgz, Chrome is correct. ![image](https://user-images.githubusercontent.com/38337958/89863866-96a6f180-dbdd-11ea-8212-78e84b64e8c6.png)

Firefox is still missing .tgz. ![image](https://user-images.githubusercontent.com/38337958/90590544-6c73b600-e213-11ea-886f-b0e0987a411f.png)

损失函数是有问题,也可能是权重初始化的参数有问题(那部分来源于yolov3),在加载预训练权重的前提下可以训练,这两部分都需要重写

请使用刚才更新的代码进行训练 https://github.com/Ma-Dan/keras-yolo4/commit/6bf056ae7f46a27df80fa3ffe873c69cc6478b86 我测试的环境:tensorflow 1.14.0, keras 2.2.4 目前代码用的是DIoU loss,可以训练出结果。

因为太多的反馈训练问题,为了避免我的代码对大家的误导,抄作业了训练和loss,一直抄到 label smooth 之前。后面这个repo不会再抄和更新,抄到这里是为了发现和定位问题。 **为了模型有更专业的持续维护,请大家用原作者的完善版本。** qqwwee版的训练确实很多坑,抄作业过程发现的问题和修改: (1) 模型主干没有太大问题,修改了kernel_initializer和 L2正则化(会加速收敛,酌情加上可能更好); (2) train里面的letterbox预处理,不如scale方式准确; (3) 没有多尺度输入; (4) 之前的ciou loss也不太对,miemie2013的全尺度 ciou loss 好很多; (5) 从主干输出解码的流程也有精度问题; 从新开始训练voc2012,100 epoch后,loss在9.094,loss由3部分组成,objectness loss是数值最大的组成部分。测试结果如下: ``` Average Precision (AP) @[ IoU=0.50:0.95...

如果是没有加载预训练权重的从头训练,请解除前面层的冻结。

Touch screen mask editing has not been done yet, if you want to get mask from user touch, then you should convert mask to black-white format. Canny Edge detection in...

![image](https://user-images.githubusercontent.com/38337958/69006111-9c7ce880-0965-11ea-99a2-f537d9e55c1c.png) Please try this input, input image should be 320x320, and mask region are all white pixels without antialised edge.