一维卷积神经网络超宽带天线建模方法
DOI:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

TP18

基金项目:

国家自然科学基金(61971210)、企业合作课题:射频 LDMOS 功放器件研究测试(21-2-32)项目资助


One-dimensional convolutional neural network modeling method for ultra-wideband antenna
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    为加快天线建模优化速度,提出了一种改进的一维卷积神经网络(1D-MCNN)模型。 此一维神经网络的卷积核大小为 2,将 ReLU 函数作为激活函数降低梯度弥散;利用 Adam 优化器与 dropout 技术结合,提高模型的特征学习能力和非线性函数逼 近能力。 本文使用 1D-MCNN 模型对超宽带微带单极子天线几何参数建模,以天线的 8 个几何参数作为特征输入,对天线的回 波损耗值进行预测。 实验表明,本文所提 1D-MCNN 模型与深层 MLP 网络模型、MLP 网络模型、RBF 神经网络模型相比,回波 损耗值的平均误差分别减小了 1. 95%,120. 27%,125. 71%,拥有更高的准确度,预测能力更强,对优化超宽带天线建模可行且 性能具有一定优越性。

    Abstract:

    To speed up the optimization of antenna modeling, an improved one-dimensional convolutional neural network ( 1D-MCNN ) model is proposed. The convolution kernel size of this one-dimensional neural network is 2, and the ReLU function is used as the activation function to reduce the gradient dispersion. The Adam optimizer is combined with dropout technology to improve the feature learning ability and nonlinear function approximation ability of the model. In this paper, the 1D-MCNN model is used to model the geometric parameters of the ultra-wideband microstrip monopole antenna. The eight geometric parameters of the antenna are used as feature inputs to predict the return loss value of the antenna. Experiments show that compared with the deep MLP network model, MLP network model, and RBF neural network model, the average error of the return loss value of the 1D-MCNN model proposed in this paper is reduced by 1. 95%, 120. 27%, and 125. 71% respectively. It has higher accuracy and stronger prediction ability. It is feasible to optimize the modeling of ultra-wideband antennas and has certain advantages.

    参考文献
    相似文献
    引证文献
引用本文

南敬昌,孙雯雯,杜有益,王明寰.一维卷积神经网络超宽带天线建模方法[J].电子测量与仪器学报,2023,37(2):204-210

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2023-06-15
  • 出版日期: