编辑:[db:作者] 时间:2024-08-25 05:46:51
编译:ronghuaiyang
导读最近的CVPR 2020在推动物体检测提高方面有相称多的贡献。
在这篇文章中,我们将看到几篇特殊令人印象深刻的论文。A Hierarchical Graph Network for 3D Object Detection on Point Clouds
这篇文章提出了一种基于图卷积(GConv)的层次图网络(HGNet)用于三维目标检测。它直接处理原始点云来预测3D边界框。HGNet能够捕获点之间的关系,并利用多级语义进行物体检测。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Chen_A_Hierarchical_Graph_Network_for_3D_Object_Detection_on_Point_CVPR_2020_paper.html
HGNet由三个紧张部分组成:
基于GConv的U形网络(GU-net)Proposal天生器Proposal推理模块(ProRe模块) — 利用全连通图对proposals进行推理作者提出了一种形状把稳力的GConv (SA-GConv)来捕获局部形状特色。通过建模相对的几何位置来描述物体的形状。
基于SA-GConv的U形网络捕获了多层特色。然后,投票模块将它们映射到一个相同的特色空间,并用于天生proposals。不才一步中,基于GConv的proposals 推理模块利用proposals 来预测边框。
下面是在SUN RGB-D V1数据集上得到的一些性能结果。
HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection
在本文中,作者提出了Hybrid Voxel网络(HVNet),一种用于自动驾驶的基于点云的三维物体检测的一阶段的网络。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Ye_HVNet_Hybrid_Voxel_Network_for_LiDAR_Based_3D_Object_Detection_CVPR_2020_paper.html
本文利用的voxel特色编码(VFE)方法包括三个步骤:
Voxelization —— 分配一个点云到一个2D voxel 网格Voxel 特色提取 —— 打算一个网格依赖的point-wise特色,它被送给一个PointNet风格的特色编码器投影 —— 将point-wise特色聚合到voxel-level的特色并将其投影到原始网格中。这就形成了一个伪图像特色图。voxel的大小在VFE方法中是非常主要的。更小的voxel 尺寸捕获更风雅的几何特色。它们也更善于于物体的定位,但须要更长的推理韶光。利用更粗的voxel 可以得到更快的推理速率,由于它会导致更小的特色图。然而,它的性能较差。
作者提出利用稠浊voxel网络(HVNet)来利用细粒度的voxel 特色。它由三个步骤组成:
多尺度体Voxelization — 创建一组特色voxel 尺度,并将其分配给多个voxel 。稠浊voxel 特色提取 — 打算每个尺度的voxel依赖特色,并将其送入把稳力特色编码器(AVFE)。每个voxel尺度的特色进行point-wise连接。动态特色投影 — 通过创建一组多尺度物体voxels将特色投影回伪图像。以下是在KITTI数据集上得到的结果。
Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud
本文的作者提出了一个图神经网络 — Point-GNN — 来从LiDAR点云检测物体。该网络预测了图中每个顶点所属物体的种别和形状。Point-GNN有一个自回归机制,可以在一个点云中检测多个物体。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Shi_Point-GNN_Graph_Neural_Network_for_3D_Object_Detection_in_a_CVPR_2020_paper.html
提出的方法有三个组成部分:
图布局:利用voxel下采样点云进行图布局一个T迭代的图神经网络包围框合并以及打分以下是在KITTI数据集上得到的结果:
代码:https://github.com/WeijingShi/Point-GNN
Camouflaged Object Detection
本文提出了检测嵌入在周围环境中的物体的寻衅 —— 伪装物体检测(COD)。作者还供应了一个名为COD10K的新数据集。它包含10,000张图片,覆盖了许多自然场景中伪装的物体。它有78个物体种别。这些图像利用种别标签、边框、实例级和抠图级标签进行标注。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Fan_Camouflaged_Object_Detection_CVPR_2020_paper.html
作者开拓了一个称为搜索识别网络(SINet)的COD框架。
代码:https://github.com/DengPingFan/SINet/
该网络有两个紧张模块:
用于搜索伪装物体的搜索模块(SM)检测目标的识别模块(IM)以下是各数据集的结果:
Few-Shot Object Detection with Attention-RPN and Multi-Relation Detector
本文提出了一种few-shot目标检测网络,其目标是检测只含有少量标注样本的没见过的类别的物体。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Fan_Few-Shot_Object_Detection_With_Attention-RPN_and_Multi-Relation_Detector_CVPR_2020_paper.html
他们的方法包括attention-RPN、多关系检测器和比拟演习策略。该方法利用few-shot支持集和查询集之间的相似性来识别新物体,同时减少了误识别。作者还供应了一个包含1000个类别的新数据集,个中的物体具有高质量的标注。
该网络体系构造由一个多分支的权值共享框架组成,一个分支是查询集,其他分支是支持集,权值共享框架的查询分支是一个Faster R-CNN网络。
作者先容了一种带有多关系模块和attention-RPN的检测器,用于在支持和查询中可能涌现的框之间进行精确解析。
下面是在ImageNet数据集上得到的一些结果。
以下是在一些数据集上得到的不雅观察结果。
D2Det: Towards High-Quality Object Detection and Instance Segmentation
本文作者提出了D2Det,一种既能精确定位又能精确分类的方法。他们引入了一个稠密的局部回归来预测一个物体的proposal的多个稠密box偏移量。这使他们能够实现精确的定位。
论文:http://openaccess.thecvf.com/content_CVPR_2020/html/Cao_D2Det_Towards_High_Quality_Object_Detection_and_Instance_Segmentation_CVPR_2020_paper.html
为了实现准确的分类,本文还引入了一种有区分性的RoI pooling方案。pooling方案从该方案的多个子区域中抽取样本,并进行自适应加权以得到有区分性的特色。
代码:https://github.com/JialeCao001/D2Det
该方法基于标准的Faster R-CNN框架。在该方法中,传统的Faster R-CNN的盒偏置回归被提出的密集局部回归所代替。在该方法中,通过有区分性的RoI pooling来增强分类能力。
在两阶段方法中,第一阶段采取区域建议网络(RPN),第二阶段采取单独的分类和回归分支。分类分支是基于可区分性池化的。本地回归分支的目标是物体的精确定位。
MS COCO数据集的结果如下:
英文原文:https://heartbeat.fritz.ai/cvpr-2020-the-top-object-detection-papers-f920a6e41233
本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除,如需转载请保留原文地址:http://www.baanla.com/ktwx/143269.html
上一篇:《黑客收集》最低设备要求介绍
下一篇:返回列表
Copyright 2005-20203 www.baidu.com 版权所有 | 琼ICP备2023011765号-4 | 统计代码
声明:本站所有内容均只可用于学习参考,信息与图片素材来源于互联网,如内容侵权与违规,请与本站联系,将在三个工作日内处理,联系邮箱:123456789@qq.com