推理速度快YOLOV4五倍的YOLObile:通过压缩编译在移动端实时检测(附论文下载)

来源:计算机视觉研究院
作者:Edison_G

目标检测技术的迅速发展和广泛应用,引起了人们对目标检测器的精度和速度的关注。然而,目前最先进的目标检测工作要么是精度导向使用大模型,但导致高延迟,要么是速度导向使用轻量级模型,但牺牲精度。在这项工作中,作者提出了YOLObile框架,通过压缩编译协同设计在移动设备上实时检测对象。提出了一种适用于任意核大小的块穿孔剪枝方案。为提高移动设备上的计算效率,采用GPU-CPU协同方案,并辅以高级编译器辅助优化。实验结果表明,新提出的剪枝方案在49.0 mAP的情况下,可以实现YOLOv4的14倍压缩率。在YOLObile框架下,使用三星Galaxy S20的GPU实现了17 FPS的推理速度。通过加入新提出的GPU-CPU协同方案,推理速度提高到19.1帧/秒,比原来的YOLOv4加速5倍。

实验结果

总结

在本次工作中,提出了一个基于压缩编译协同设计的移动设备实时目标检测框架YOLObile。此外,还提出了一种新的剪枝方案——区块剪枝,该方案适用于任意核大小的卷积层和全连接层。为了提高移动设备上DNNs的计算效率,除了新提出的编译器优化之外,提出的YOLObile还提供了一个GPU-CPU协同计算方案。经过实验证明,新提出的YOLObile框架展现出了高准确性、高效率,并同时实现了高硬件并行性!

论文地址:
https://arxiv.org/pdf/2009.05697.pdf

推荐专栏文章

  • Tensorflow + OpenCV4 安全帽检测模型训练与推理
  • YOLO窥见黑夜|YOLO in the Dark让黑夜里的目标检测成为可能
  • FBNet/FBNetV2/FBNetV3:Facebook在NAS领域的轻量级网络探索

更多嵌入式AI算法部署等请关注极术嵌入式AI专栏

文件名 大小 下载次数 操作
YOLObile.pdf 2.11MB 0 下载

发表评论

邮箱地址不会被公开。 必填项已用*标注