基于深度学习的密集物料检测方法
DOI:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

TN2

基金项目:

南京信息工程大学创新创业基金(WXCX202125)、 江苏省研究生科研与实践创新计划项目(SJCX23_0369)资助


Dense material detection method based on deep learning
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    工业密集物料检测对计数精度有着较高的要求。对于检测样本疏密程度较均匀且互相无遮盖的情况,传统方法检测 效果尚好,但是针对疏密分布不均匀或者样本互相之间存在遮盖的场景误识别的情况便较为严重。因此,为了提高检测的准 确率与计数的精度,在 HRNet 的基础上进行改进,提出一种自注意力多尺度融合模型,主模型使用 HRNet 在不同分辨率特 征图之间进行特征交互融合,同时在高分辨率特征图上添加自注意力机制加强模块增强全局特征提取。其次,针对物料中包 含少数大料但密集检测检测效果较差的情况,采用了双通道物料大小判断执行机制,添加了YOLO 框架对物料大小分类进行 检测。最后,数据集均由X 射线无损检测设备进行采集标注,在此数据集上模型的预测精度达到了96.7%,相较于其他模型 有较大的提升。

    Abstract:

    Industrial intensive material inspection has high requirements for counting accuracy.Traditional methods perform well in cases where the density of detected samples is relatively uniform and they do not overlap.However,in scenarios with uneven density distribution or overlapping samples,the issue of misrecognition becomes more severe.To enhance detection accuracy and counting precision,this study improves upon the HRNet architecture and proposes a self- attention multi-scale fusion model.The main model employs HRNet for feature interaction fusion among different resolution feature maps and enhances global feature extraction by adding a self-attention mechanism to high-resolution feature maps.Furthermore,to address situations where the inspection performance is poor for materials with few but large components,a dual-channel material size determination mechanism is introduced,utilizing the YOLO framework for material size classification detection.Lastly,the datasets used in this study are collected and annotated using X-ray non-destructive testing equipment.The proposed model achieves a prediction accuracy of 96.7%on this dataset, demonstrating improvement compared to other models.

    参考文献
    相似文献
    引证文献
引用本文

朱 希,李 燕,施林枫.基于深度学习的密集物料检测方法[J].国外电子测量技术,2024,43(1):151-158

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2024-05-28
  • 出版日期: