当前位置:首页 > 空调维修 > 文章正文

CVPR 2020:物体检测论文精选

编辑:[db:作者] 时间:2024-08-25 05:46:51

编译:ronghuaiyang

导读

最近的CVPR 2020在推动物体检测提高方面有相称多的贡献。

CVPR 2020:物体检测论文精选

在这篇文章中,我们将看到几篇特殊令人印象深刻的论文。

A Hierarchical Graph Network for 3D Object Detection on Point Clouds

这篇文章提出了一种基于图卷积(GConv)的层次图网络(HGNet)用于三维目标检测。
它直接处理原始点云来预测3D边界框。
HGNet能够捕获点之间的关系,并利用多级语义进行物体检测。

论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Chen_A_Hierarchical_Graph_Network_for_3D_Object_Detection_on_Point_CVPR_2020_paper.html

HGNet由三个紧张部分组成:

基于GConv的U形网络(GU-net)Proposal天生器Proposal推理模块(ProRe模块) — 利用全连通图对proposals进行推理

作者提出了一种形状把稳力的GConv (SA-GConv)来捕获局部形状特色。
通过建模相对的几何位置来描述物体的形状。

基于SA-GConv的U形网络捕获了多层特色。
然后,投票模块将它们映射到一个相同的特色空间,并用于天生proposals。
不才一步中,基于GConv的proposals 推理模块利用proposals 来预测边框。

下面是在SUN RGB-D V1数据集上得到的一些性能结果。

HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection

在本文中,作者提出了Hybrid Voxel网络(HVNet),一种用于自动驾驶的基于点云的三维物体检测的一阶段的网络。

论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Ye_HVNet_Hybrid_Voxel_Network_for_LiDAR_Based_3D_Object_Detection_CVPR_2020_paper.html

本文利用的voxel特色编码(VFE)方法包括三个步骤:

Voxelization —— 分配一个点云到一个2D voxel 网格Voxel 特色提取 —— 打算一个网格依赖的point-wise特色,它被送给一个PointNet风格的特色编码器投影 —— 将point-wise特色聚合到voxel-level的特色并将其投影到原始网格中。
这就形成了一个伪图像特色图。

voxel的大小在VFE方法中是非常主要的。
更小的voxel 尺寸捕获更风雅的几何特色。
它们也更善于于物体的定位,但须要更长的推理韶光。
利用更粗的voxel 可以得到更快的推理速率,由于它会导致更小的特色图。
然而,它的性能较差。

作者提出利用稠浊voxel网络(HVNet)来利用细粒度的voxel 特色。
它由三个步骤组成:

多尺度体Voxelization — 创建一组特色voxel 尺度,并将其分配给多个voxel 。
稠浊voxel 特色提取 — 打算每个尺度的voxel依赖特色,并将其送入把稳力特色编码器(AVFE)。
每个voxel尺度的特色进行point-wise连接。
动态特色投影 — 通过创建一组多尺度物体voxels将特色投影回伪图像。

以下是在KITTI数据集上得到的结果。

Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud

本文的作者提出了一个图神经网络 — Point-GNN — 来从LiDAR点云检测物体。
该网络预测了图中每个顶点所属物体的种别和形状。
Point-GNN有一个自回归机制,可以在一个点云中检测多个物体。

论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Shi_Point-GNN_Graph_Neural_Network_for_3D_Object_Detection_in_a_CVPR_2020_paper.html

提出的方法有三个组成部分:

图布局:利用voxel下采样点云进行图布局一个T迭代的图神经网络包围框合并以及打分

以下是在KITTI数据集上得到的结果:

代码:https://github.com/WeijingShi/Point-GNN

Camouflaged Object Detection

本文提出了检测嵌入在周围环境中的物体的寻衅 —— 伪装物体检测(COD)。
作者还供应了一个名为COD10K的新数据集。
它包含10,000张图片,覆盖了许多自然场景中伪装的物体。
它有78个物体种别。
这些图像利用种别标签、边框、实例级和抠图级标签进行标注。

论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Fan_Camouflaged_Object_Detection_CVPR_2020_paper.html

作者开拓了一个称为搜索识别网络(SINet)的COD框架。

代码:https://github.com/DengPingFan/SINet/

该网络有两个紧张模块:

用于搜索伪装物体的搜索模块(SM)检测目标的识别模块(IM)

以下是各数据集的结果:

Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector

本文提出了一种few-shot目标检测网络,其目标是检测只含有少量标注样本的没见过的类别的物体。

论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Fan_Few-Shot_Object_Detection_With_Attention-RPN_and_Multi-Relation_Detector_CVPR_2020_paper.html

他们的方法包括attention-RPN、多关系检测器和比拟演习策略。
该方法利用few-shot支持集和查询集之间的相似性来识别新物体,同时减少了误识别。
作者还供应了一个包含1000个类别的新数据集,个中的物体具有高质量的标注。

该网络体系构造由一个多分支的权值共享框架组成,一个分支是查询集,其他分支是支持集,权值共享框架的查询分支是一个Faster R-CNN网络。

作者先容了一种带有多关系模块和attention-RPN的检测器,用于在支持和查询中可能涌现的框之间进行精确解析。

下面是在ImageNet数据集上得到的一些结果。

以下是在一些数据集上得到的不雅观察结果。

D2Det: Towards High-Quality Object Detection and Instance Segmentation

本文作者提出了D2Det,一种既能精确定位又能精确分类的方法。
他们引入了一个稠密的局部回归来预测一个物体的proposal的多个稠密box偏移量。
这使他们能够实现精确的定位。

论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Cao_D2Det_Towards_High_Quality_Object_Detection_and_Instance_Segmentation_CVPR_2020_paper.html

为了实现准确的分类,本文还引入了一种有区分性的RoI pooling方案。
pooling方案从该方案的多个子区域中抽取样本,并进行自适应加权以得到有区分性的特色。

代码:https://github.com/JialeCao001/D2Det

该方法基于标准的Faster R-CNN框架。
在该方法中,传统的Faster R-CNN的盒偏置回归被提出的密集局部回归所代替。
在该方法中,通过有区分性的RoI pooling来增强分类能力。

在两阶段方法中,第一阶段采取区域建议网络(RPN),第二阶段采取单独的分类和回归分支。
分类分支是基于可区分性池化的。
本地回归分支的目标是物体的精确定位。

MS COCO数据集的结果如下:

英文原文:https://heartbeat.fritz.ai/cvpr-2020-the-top-object-detection-papers-f920a6e41233

本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除,如需转载请保留原文地址:http://www.baanla.com/ktwx/143269.html

XML地图 | 自定链接

Copyright 2005-20203 www.baidu.com 版权所有 | 琼ICP备2023011765号-4 | 统计代码

声明:本站所有内容均只可用于学习参考,信息与图片素材来源于互联网,如内容侵权与违规,请与本站联系,将在三个工作日内处理,联系邮箱:123456789@qq.com