基于深度学习的安检危险物品自动检测系统文献综述

 2023-08-20 08:08

文献综述(或调研报告):

  1. 前言

随着深度学习理论的不断完善,越来越多的研究员将目光放在了计算机视觉的方向上,通过深度学习加上图像处理的手段,对数字图像进行处理及分析。安检危险物品的自动检测便是其中一种场景,不仅是图像分类,更是一种目标检测的手段,让算法同时判断图像中的物体以及用矩形框标记出它的位置。

  1. 研究现状

近几年来,基于深度学习的检测系统已经能够快速、可靠地检测出真实场景中地物体。在早期的目标检测中,计算机使用基于滑动窗口的方法,在每个空间位置对窗口中的内容使用分类器进行识别。但这种方法耗时巨大,之后人们通过在使用分类器之前先确定一些可候选的建议区域来缩小搜索的范围,进一步优化了检测效果。

而现在,基于深度学习的方法使得目标检测算法取得了很大的突破。比较流行的算法可以分为两类,一类是如R-CNN、Fast R-CNN这些基于可候选区域(Region Proposal)的检测算法,这些算法通常是两步走的,需要先产生候选位置,再对候选框做分类与回归定位。另一类则是不使用可候选区域的一步算法,例如YOLO、SSD以及YOLO9000,仅使用一个卷积神经网络直接预测不同目标的类别与位置。

下面将介绍两类方法中比较具有代表性的两种算法,Fast R-CNN和YOLO算法。

  1. Fast R-CNN算法

Fast R-CNN是基于R-CNN进行改进的算法。R-CNN借助了滑动窗口的思想,来完成目标检测中物体分类的定位这两个任务。它先从输入图像中提取2000个类别独立的候选区域,再对每个候选区域使用卷积神经网络获取特征向量,通过支持向量机对特征向量进行分类、边界框回归函数调整检测框的大小。

Fast R-CNN则对其进行了优化,使用了兴趣区域池化层(RoI Pooling Layer),对R-CNN中由于多阶段训练导致的耗时问题进行改善。首先,它还是从图像中提取2000个感兴趣区域(Region Of Interest)并用卷积神经网络对全图进行特征提取。与前者不同的是,Fast R-CNN使用了兴趣区域池化层在全图特征上摘取每一个兴趣区域对应的特征,最后通过全连接层进行分类和定位输出。

相比较R-CNN,Fast R-CNN取代了前者串行卷积提取特征的方式,通过兴趣区域池化层这一改进,直接使用一个卷积神经网络对全图进行特征提取。这样避免了R-CNN中对每个候选区域进行卷积导致的较长耗时问题,进一步提升了检测速度。

  1. YOLO算法

作为不同于R-CNN这类两步走的算法,YOLO算法给出了一种更直接的思路。相较于前一类先用候选区域提供位置信息、再用分类提供类别信息的做法,YOLO算法通过在输出层回归边界框的位置和边界框的所属类别,直接将物体的定位和分类在一步中完成,极大地提升了运算速度、满足了实时性的需求。

YOLO先是通过20个卷积层提高模型泛化能力、实现对输入图像的特征提取,再通过4个卷积层和2个全连接层实现检测。最后进行筛选,先过滤置信度较低的边界框,再通过非极大值抑制的方法筛去重叠度较高的框,来找到最终合适的边界框。

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文文献综述,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。