madobet
madobet
> 本文旨在介绍 ARMv7 开始增加的一项 advanced SIMD extension——NEON 技术。有助于帮助读者理解 NEON 概况,提供的实例分析有助于迅速上手 NEON 编程。阅读此文要求读者有基本的**C/C++ 经验**及**汇编代码**经验,若没有也没关系,多理解查阅资料即可。Good luck~! ### Catalog[](#catalog) 1. [SIMD 及 NEON 概览](#simdneon) 2. [NEON 架构(寄存器 / 数据类型 / 指令集)](#neon) ## SIMD...
> YOLO 系列是基于深度学习的回归方法。 > RCNN, Fast-RCNN,Faster-RCNN 是基于深度学习的分类方法。 YOLO 官网: [https://github.com/pjreddie/darknetgithub.com](https://link.zhihu.com/?target=https%3A//github.com/pjreddie/darknet) ## YOLO v.s Faster R-CNN 1. 统一网络: YOLO 没有显示求取 region proposal 的过程。Faster R-CNN 中尽管 RPN 与 fast rcnn 共享卷积层,但是在模型训练过程中,需要反复训练 RPN...
深度学习在视觉上的应用 计算机视觉中比较成功的深度学习的应用,包括人脸识别,图像问答,物体检测,物体跟踪。 人脸识别: > 这里说人脸识别中的人脸比对,即得到一张人脸,与数据库里的人脸进行比对;或同时给两张人脸,判断是不是同一个人。 > > 这方面比较超前的是汤晓鸥教授,他们提出的 DeepID 算法在 LWF 上做得比较好。他们也是用卷积神经网络,但在做比对时,两张人脸分别提取了不同位置特征,然后再进行互相比对,得到最后的比对结果。最新的 DeepID-3 算法,在 LWF 达到了 99.53% 准确度,与肉眼识别结果相差无几。 图片问答问题: > 这是 2014 年左右兴起的课题,即给张图片同时问个问题,然后让计算机回答。比如有一个办公室靠海的图片,然后问 “桌子后面有什么”,神经网络输出应该是 “椅子和窗户”。 > > 这一应用引入了 LSTM 网络,这是一个专门设计出来具有一定记忆能力的神经单元。特点是,会把某一个时刻的输出当作下一个时刻的输入。可以认为它比较适合语言等,有时间序列关系的场景。因为我们在读一篇文章和句子的时候,对句子后面的理解是基于前面对词语的记忆。...
卷积的概念 计算机视觉里经常使卷积神经网络,即 CNN,是一种对人脑比较精准的模拟。 什么是卷积?卷积就是两个函数之间的相互关系,然后得出一个新的值,他是在连续空间做积分计算,然后在离散空间内求和的过程。实际上在计算机视觉里面,可以把卷积当做一个抽象的过程,就是把小区域内的信息统计抽象出来。 比如,对于一张爱因斯坦的照片,我可以学习 n 个不同的卷积和函数,然后对这个区域进行统计。可以用不同的方法统计,比如着重统计中央,也可以着重统计周围,这就导致统计的和函数的种类多种多样,为了达到可以同时学习多个统计的累积和。 上图中是,如何从输入图像怎么到最后的卷积,生成的响应 map。首先用学习好的卷积和对图像进行扫描,然后每一个卷积和会生成一个扫描的响应图,我们叫 response map,或者叫 feature map。如果有多个卷积和,就有多个 feature map。也就说从一个最开始的输入图像(RGB 三个通道)可以得到 256 个通道的 feature map,因为有 256 个卷积和,每个卷积和代表一种统计抽象的方式。 在卷积神经网络中,除了卷积层,还有一种叫池化的操作。池化操作在统计上的概念更明确,就是一个对一个小区域内求平均值或者求最大值的统计操作。 带来的结果是,如果之前我输入有两个通道的,或者 256 通道的卷积的响应 feature map,每一个 feature map...
几个(半)成功例子 这些特征和一些特定的分类器组合取得了一些成功或半成功的例子,基本达到了商业化的要求但还没有完全商业化。 - 一是八九十年代的指纹识别算法,它已经非常成熟,一般是在指纹的图案上面去寻找一些关键点,寻找具有特殊几何特征的点,然后把两个指纹的关键点进行比对,判断是否匹配。 - 然后是 2001 年基于 Haar 的人脸检测算法,在当时的硬件条件下已经能够达到实时人脸检测,我们现在所有手机相机里的人脸检测,都是基于它或者它的变种。 - 第三个是基于 HoG 特征的物体检测,它和所对应的 SVM 分类器组合起来的就是著名的 DPM 算法。DPM 算法在物体检测上超过了所有的算法,取得了比较不错的成绩。 但这种成功例子太少了,因为手工设计特征需要大量的经验,需要你对这个领域和数据特别了解,然后设计出来特征还需要大量的调试工作。说白了就是需要一点运气。 另一个难点在于,你不只需要手工设计特征,还要在此基础上有一个比较合适的分类器算法。同时设计特征然后选择一个分类器,这两者合并达到最优的效果,几乎是不可能完成的任务。 仿生学角度看深度学习 如果不手动设计特征,不挑选分类器,有没有别的方案呢?能不能同时学习特征和分类器?即输入某一个模型的时候,输入只是图片,输出就是它自己的标签。比如输入一个明星的头像,出来的标签就是一个 50 维的向量(如果要在 50 个人里识别的话),其中对应明星的向量是 1,其他的位置是 0。 这种设定符合人类脑科学的研究成果。...
未系安全带智能检测技术近年来高速发展,主要得益于深度学习前沿技术的快速发展,明景未系安全带智能检测系统基于深度学习技术,通过海量车辆数据进行反复迭代学习,才达到极高的准确率。为让大家对于明景未系安全带智能检测系统的技术方案及产品未来发展有个更全面的了解,特此收集李汉曦博士对于深度学习技术的讲解,供大家学习了解。 作者: 李汉曦,慧眼科技研发总监,澳大利亚国立大学博士;曾任澳大利亚国家信息通信公司 (NICTA) 任高级研究员;人脸识别,物体检测,物体跟踪、深度学习方面的专家,在 TPAMI,TIP, TNNLS 和 Pattern Recognition 等权威期刊,以及 CVPR,ECCV,BMVC, ACCV 等领域内重要会议发表过有影响力的论文;现为澳大利亚格里菲斯大学客座研究员,江西师范大学特聘教授。 人工智能是人类一个非常美好的梦想,跟星际漫游和长生不老一样。我们想制造出一种机器,使得它跟人一样具有一定的对外界事物感知能力,比如看见世界。 在上世纪 50 年代,数学家图灵提出判断机器是否具有人工智能的标准:图灵测试。即把机器放在一个房间,人类测试员在另一个房间,人跟机器聊天,测试员事先不知道另一房间里是人还是机器 。经过聊天,如果测试员不能确定跟他聊天的是人还是机器的话,那么图灵测试就通过了,也就是说这个机器具有与人一样的感知能力。 但是从图灵测试提出来开始到本世纪初,50 多年时间有无数科学家提出很多机器学习的算法,试图让计算机具有与人一样的智力水平,但直到 2006 年深度学习算法的成功,才带来了一丝解决的希望。 众星捧月的深度学习 深度学习在很多学术领域,比非深度学习算法往往有 20-30% 成绩的提高。很多大公司也逐渐开始出手投资这种算法,并成立自己的深度学习团队,其中投入最大的就是谷歌,2008 年 6 月披露了谷歌脑项目。2014...
> Summary:何恺明最新论文:VoteNet 3D 目标检测,华为提出:基于 NAS 的人脸识别算法,程明明等开源:PoolNet 实时显著性目标检测 > 编辑:Amusi > Date:2019-04-24 > 微信公众号:[CVer](https://link.zhihu.com/?target=https%3A//mp.weixin.qq.com/s/vyKGYp3O2uJ51sQ1nMI96Q) 和 [OpenCV 大本营](https://link.zhihu.com/?target=https%3A//mp.weixin.qq.com/s/w7cApIaTDMzmba_yLNCx6g) > 原文链接:[何恺明最新论文:VoteNet 3D 目标检测,华为提出:基于 NAS 的人脸识别算法,程明明等开源:PoolNet 实时显著性目标检测](https://link.zhihu.com/?target=https%3A//mp.weixin.qq.com/s/vyKGYp3O2uJ51sQ1nMI96Q) 最近论文真的很超级多,而且很多吸睛话题论文:[CornerNet-Lite](https://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzUxNjcxMjQxNg%3D%3D%26mid%3D2247488676%26idx%3D1%26sn%3Dd2cb1f991687379756ca26dd4bf072db%26chksm%3Df9a2662bced5ef3d10724e7d68ed07c15afe74df6cfb3c4c4da938bbc9a9ef3557a549b9b69b%26scene%3D21%23wechat_redirect),[CenterNet](https://link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzUxNjcxMjQxNg%3D%3D%26mid%3D2247488634%26idx%3D1%26sn%3D877122d09512321bc6a1cc94a3d75fc2%26chksm%3Df9a266f5ced5efe305cc5920fdf536524627bdf983b325dc93a87eef31ec34efb0c69afbed1c%26scene%3D21%23wechat_redirect),[NAS-FPN](https://link.zhihu.com/?target=https%3A//mp.weixin.qq.com/s%3F__biz%3DMzI0NDUwNzYzMg%3D%3D%26mid%3D2247484830%26idx%3D1%26sn%3Dea20b823324fe2f10fa426fba93c0af7%26scene%3D21%23wechat_redirect)等。2019 年 4 月 23 日,arXiv 上放出了很多优质论文:**各种顶会...
> **【新智元导读】**FAIR 何恺明等人团队提出 3D 目标检测新框架 VoteNet,直接处理原始数据,不依赖任何 2D 检测器。该模型设计简单,模型紧凑,效率高,在两大真实 3D 扫描数据集上实现了最先进的 3D 检测精度。 当前的 3D 目标检测方法受 2D 检测器的影响很大。为了利用 2D 检测器的架构,它们通常将 3D 点云转换为规则的网格,或依赖于在 2D 图像中检测来提取 3D 框。很少有人尝试直接检测点云中的物体。 近日,Facebook AI 实验室 (FAIR) 和斯坦福大学的...
原文标题:Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification, Detection and Segmentation ## motivation 很多轻量级的 CNN 模型已经在便携移动设备应用(如手机):MobileNet、ShuffleNet 等,但是效果差强人意。本文是 Google 团队在 MobileNet 基础上提出的 MobileNetV2,实现分类 / 目标检测 / 语义分割多目标任务:以 MobileNetV2 为基础设计目标检测模型 SSDLite(相比...
本文开源了一个安全帽佩戴检测数据集及预训练模型,该项目已上传至 github,[点此链接](https://github.com/njvisionpower/Safety-Helmet-Wearing-Dataset),感觉有帮助的话请点 star 。同时简要介绍下实践上如何完成一个端到端的目标检测任务。可以看下效果图:  同时该模型也可以做人头检测,效果如下:  **一、背景介绍** 最近几年深度学习的发展让很多计算机视觉任务落地成为可能,这些任务渗透到了各行各业,比如工业安全,包含的任务如安全帽佩戴检测、高空坠物检测、异常事故检测(行人跌倒不起等)等等,这里以安全帽检测为例,简单介绍下如何完成一个端到端的任务,包括: 1. 业务场景分析 2. 数据收集、预处理及标注 3. 算法设计及训练 4. 模型转换及部署 **二、业务场景分析** 怎样定义 “安全帽佩戴检测” 这个问题呢?正常来看是需要判断行人头部区域有没有安全帽,比如有些做法是先用目标检测模型如 SSD、Yolo 系列及改进系列(各种加速版及适用移动端的网络)检测行人区域,然后再设计一个小的分类网络判断区域内是否存在安全帽。这种做法的好处是比较简单: 一来,行人检测算是做的比较多的应用,数据集、算法都比较多; 二来,很多数据都是以监控视频的形式存在,标注的时候标注较粗粒度的区域即可,然后做分类。 不过这种做法的劣势也比较明显: 第一,这种做法并不是一个端到端的预测过程,显然要做到先检测出行人,再用分类网络判断是否存在安全帽; 第二,目标检测和分类的区别,如果用这种粗粒度的标注方法,也就是标注出包含安全帽的较大的区域,而不是紧紧包含安全帽的那块区域,分类效果并不会太好; 第三,严谨来说,对于用户更希望得到的是,定位出佩戴安全帽的目标位置,很多情况安全帽虽然在行人区域内,但这时候并不是出于 “佩戴”...