基于注意力机制的深度哈希图像检索方法
作者:
作者单位:

华中师范大学 计算机学院 武汉 430070

中图分类号:

TP391

基金项目:

教育部人文社科规划基金(17YJA870010)项目资助


Deep hash image retrieval method based on attention model
Author:
Affiliation:

School of computer science, Central China Normal University, WuHan 430070, China

  • 摘要
  • | |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • | |
  • 文章评论
    摘要:

    传统的深度哈希图像检索方法所生成的二进制哈希码存在信息冗余,不能很好地反映图像局部语义信息。本文提出一种卷积神经网络同注意力模型相结合的深度哈希图像检索方法,使用VGG16网络作为图像的特征提取器,接着在模型的卷积层之后添加注意力模块,提炼出更有效的特征图,最后在模型的全连接层输出二进制哈希码作为图像的特征,从而提高图像检索任务的精确度。在CIFAR-10和NUS-WIDE数据集上的实验表明,添加注意力机制后,模型在两个数据集下使用不同位数二进制哈希码的检索精度最高达到85.3%与78.1%,均高于未使用注意力机制的情况,验证了注意力机制的有效性。

    Abstract:

    The binary hash code generated by the traditional deep hash image retrieval method has information redundancy and cannot reflect the local semantic information of the image well. This paper proposes a deep hash image retrieval method that combines a convolutional neural network with an attention model. It uses the VGG16 network as the image feature extractor, and then adds an attention module after the convolutional layer of the model to refine the feature map, and finally output the binary hash code as the feature of the image in the fully connected layer of the model, thereby improving the accuracy of the image retrieval task. Experiments on the CIFAR-10 and NUS-WIDE datasets show that after the attention mechanism is added, the model uses different digit binary hash codes in the two datasets to achieve the highest retrieval accuracy of 85.3% and 78.1%, higher than the case where the attention mechanism is not used, verifying the effectiveness of attention model.

    参考文献
    相似文献
    引证文献
引用本文

金汉均,曾星.基于注意力机制的深度哈希图像检索方法[J].电子测量技术,2021,44(3):144-148

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 在线发布日期: 2024-12-19
文章二维码