网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于深度学习的先进陶瓷零件实时缺陷检测系统  PDF

  • 马晨凯 1
  • 吴毅慧 2
  • 傅华奇 3
  • 业宁 1
1. 南京林业大学信息科学技术学院,南京210037; 2. 南京林业大学汽车与交通工程学院,南京210037; 3. 黑龙江工程学院电气与信息工程学院,哈尔滨150050

中图分类号: TP391.4TP183TM619.23

最近更新:2021-11-01

DOI:10.16356/j.1005-2615.2021.05.009

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

传统先进陶瓷零件检测与分类的主流方法为纯机械尺寸过滤和人工判断,为解决其成本高、失误率高和损坏率高等问题,提出了基于深度学习的多目标实时检测分类模型(Multi⁃object real⁃time detection and classification model, MRDC)。该模型以YOLOv3为基础,使用SKNet作为注意力机制进行特征重构提高精确度,配合灰度图快速转化算法与跳帧检测方法提高检测速度,可实现实时缺陷检测。对实际生产中的先进陶瓷零件进行采集训练,多批次采集图像数据,每批数据含多个陶瓷零件的1 000张图像,平均精确率均值达到99.19%,用先进陶瓷零件生产线视频检验,识别分类的正确率达到100%,可以保证每分钟检测450~550个零件。多目标实时检测分类模型拥有识别速度更快、识别准确率更高和零件不易损坏等优点,可极大地节约生产原料与人力成本,减少废品产出。

先进陶瓷采用新型制备工艺制成,含有先进陶瓷的整体产品具有安全性、绝缘性、隔热性和稳定性的优异性能,被广泛应用于航天、机械、电子和化工等高精度领域。根据市场研究机构Research and Markets的预

1,全球先进陶瓷市场规模到2021年将超过1 000亿美元,在国内先进陶瓷中仅1个品种的氧化铝陶瓷配件就达到了15亿件的使用量。由于需求量庞大,提升先进陶瓷正品率将极大地提高经济效益。为进一步降低先进陶瓷的次品数量,保证高精度产品的安全性,需要寻找能够更准确地对先进陶瓷零件的成品进行判断的方法。目前生产企业主要采用传统方式对先进陶瓷零件进行成品判断,包括纯机械尺寸过滤和人工判断两种检验方式,但这些方式都存在成本高、失误率高和损坏率高等问题。例如采用机械筛选时仅能筛除出尺寸不合格的零件而无法将存在破损的先进陶瓷零件一同筛除,还需要进一步采用人工筛除,不仅增加了成本,也存在一定程度的遗漏和损坏。

随着人工智能技术的发展,零件检测已经逐渐从依靠纯机械方式发展为利用计算机图像自动识

2。柳云鹤等提出了基于遗传算法匹配训练实际机械零件图像样本,使用K近邻(K⁃nearest neighbor, KNN)分类器对其进行分类,不需要大量图像样本,并有着较高的识别3。匡逊君等利用了HU不变矩和仿射不变矩,提取了机械零件图像的组合矩特征,并应用支持向量机对零件分类,该方法无需大量样本,具有很好的泛化能4。岳晓峰等使用粒子群算法改进径向基函数神经网络,避免了网络结构和参数选取不当时出现其收敛慢甚至无法收敛的情况,使得分类的成功率得到很大提5。Hinton等首次使用深层卷积神经网络AlexNet分类大规模图6。Girshick等提出了R⁃CNN(Region convolutional neural network),并在目标检测上运用了该方7,随后的Fast R⁃CNN8和Faster R⁃CNN9也极大地提高了检测效率。YOLO基于单独的End to end网络将目标检测转化为回归问题,合并了候选区和对象识别,在不遗失准确率的同时进一步提高了检测速10

先进陶瓷零件外形有很多种,有内圆外六边形的螺母状、存在多凹槽的不规则条状以及中心至底面以长方体挖空的棱柱状等。本文选择的先进陶瓷样本外形是由上下两个空心圆柱组成,其中上半部分空心圆柱内径比下半部分空心圆柱外径稍小,下半部分内、外径差为上半部分内、外径差的2~3倍。

在实际生产中,先进陶瓷零件的筛选对边框标注的精度要求不高,但是对识别速度和准确性有很高的要求。本文提出了一种多目标实时检测分类模型(Multi⁃object real⁃time defect detection and classification model, MRDC),利用优化后的灰度图转换算法对图像先期处理,采用SKNet模块进行特征重构,并使用了基于Darknet⁃53网络的YOLOv3

11对图像全局信息进行评估,经过多次训练后可以准确地检测先进陶瓷零件的位置并判断其是否为成品。

本文率先使用基于深度学习的人工智能技术识别分类先进陶瓷零件,在极大地提高了速度与准确率的同时实现了无接触分类,避免了目标检测与分类过程中可能对先进陶瓷零件造成的损伤。

1 背景知识

1.1 YOLO算法原理

准确度和速度直接决定了目标检测模型的优

12,随着研究的不断深入,深度卷积神经网络在精度上有着很大的提13,Faster R⁃CNN等算法可以在识别前选出可能存在目标的候选区,在检测精确度和分类准确率上表现极佳,但是效率过14。YOLO不使用候选区,所以目标检测速度快,泛化性能较好;其输入一般选择416×416和RGB三通道图像,经过CNN神经网络的变换将得到1个7×7×30的张量,即49个30维的向量,其中存放了2个Bounding box的位置、2个Bounding box的置信度以及各个对象的概率。其中Bounding box的置信度为

Confidence=Pr(Object)×IOUpredtruth (1)

式中:Pr(Object)表示对象存在的概率;IOUpredtruth表示Bounding box与真实Bounding box的交并比,即两者的近似程度。

损失实为经过神经网络训练后的输出值与实际的标签值之间的偏差。YOLO的损失函数一般使用以上两者误差的平方和作为样本的整体误差,包括边框中心点误差、边框高度与宽度误差、边框内有无对象时的置信度误差以及各个对象的分类误

15,一般与30维向量中的一部分相对应,即

Loss=λcoordi=0S2j=0BIijobjxij-x̂ij2+(yij-ŷij)2+λcoordi=0S2j=0BIijobj(wij-ŵij)2+(hij-ĥij)2+i=0S2j=0BIijobj(Cij-Ĉij)2+λnoobji=0S2j=0BIijnoobj(Cij-Ĉij)2+i=0S2Iijobjcclasses(Pijc-P̂ijc)2 (2)

式中:xywCP为网络预测值;x̂ŷŵĈP̂为标注值;Iijobj仅可取值10,表示第i个网格的第j个anchor box是否对此object负责。

YOLOv1简单地将图片划分为49个网格,但是这样会导致每个网格生成的Bounding box较少,从而使其在邻近目标和小目标的检测中表现较差。此外YOLOv1还会有更多的定位误差,往往最后目标框选的精度并不

16

1.2 YOLOv3算法

YOLOv3在YOLOv1的基础上基于残差网络Resnet

17搭建了有53个卷积层的Darknet⁃53网络以用于特征提取工作,此网络的组成部分为一系列尺度为1×1和3×3的卷积18,CBR模块作为YOLOv3的基本组件之一可分为CBR_1和CBR_3,对应着上述1×13×3的卷积核尺19。Resnet思想具体体现为建立Residual 残差模块,即在一些层之间设置快捷链路,并将快捷链路与2个卷积层组成1个残差组件,如图1所示,其中Fx为残差函数,Kx为经残差网络处理后的输出值,x为输入值。

图1 残差网络结构图

Fig.1 Structural diagram of residual network

则残差网络函数可表示为

Fx=Kx-x (3)

YOLOv3将输入图像映射到3个尺度的输出张量,如果输入为416×416、RGB三通道图像,一般3种尺度分别为13×1326×2652×52,那么总共具有13×13×3+26×26×3+52×52×3=10 647个预测。在每个预测中,对象存储在其中的80维,边框坐标与置信度分别存储在其中的4维和1维,共80+4+1=85维,如图2所示。

图2 YOLOv3目标检测流程

Fig.2 YOLOv3 object detection process

不同尺度的感受野大小不同,每个尺度通过K⁃means聚类得到3个先验框,以COCO数据集为例,9个先验框的具体尺寸如表1所示。

表1 感受野尺寸表
Table 1 Receptive field size
特征图感受野先验框尺寸
13×13 116×90
156×198
373×326
26×26 30×61
62×45
59×119
52×52 10×13
16×30
33×23

YOLOv3同样用ReLU作为激活函数,输入图像经过5次步长为2的卷积层进行下采样,提升了平均精确率均值(Mean average precision, mAP),并且一定程度上解决了YOLOv1在小物体检测中表现较差的问题。

在边界框的预测上,YOLOv3采用Adam优化器,预测对象类别采用单独的Logistic分类器取代传统的Softmax分类

20,支持多标签对象同时预测框的类别、置信度和预测框。当物体的中心存在对应的网格时,就利用其对物体进行预测。

图3所示,先验框用蓝色虚线表示,预测框用红色实线表示,其中:PwPh为先验框的宽和高;bwbh为实际预测框的宽和高。若从中心点至网格最近的横坐标距离为σ(tx),最近的纵坐标距离为σ(ty),可以得到预测框表达式为

图3 预测框示意图

Fig.3 Prediction boxes indicate

bw=Pwetw (4)
bh=Pheth (5)
bx=σ(tx)+cx (6)
by=σ(ty)+cy (7)

每个预测框使用非极大值抑制(Non⁃maximum suppression, NMS)算法,即选取得分最高的输出并将与其重叠的去掉,Ci存在于第j个Bounding box的可能性如式8所示,其中Score为各边界框置信度下的条件概率。最后根据特征图与原图的映射关系在原图上输出预测框,从而实现对先进陶瓷零件的定位。

Scoreij=P(Ci|Object)×Confidencej (8)

2 多目标实时检测分类模型

本文提出一种效率与准确性较高的多目标实时检测分类模型MRDC。该模型在上述YOLOv3算法的基础上添加了SKNet(Selective kernel network)注意力机制,并结合灰度图转化算法的思想,采用跳帧追踪检测。因此,MRDC模型在继承YOLOv3高速准确特点的同时可在视频目标检测与分类中进一步提升效率。

2.1 灰度图转化算法优化

一般使用的样本均为sRGB空间图像,将图像转为灰度图有多种算法,例如:直接将RGB求和取均值(式(9)),Photoshop中经典的Adobe RGB(式(10)),经典的非线性空间心理学灰度图转化公式(式(11)

21

Gray=R+G+B3 (9)
Gray=(0.297 3R2.2+0.627 4G2.2+0.075 3B2.2)-2.2 (10)
Gray=0.299R+0.587G+0.114B (11)

式中:RGB取值为0~255之间的整数,分别代表红色、绿色和蓝色的颜色成分;Grey为灰度值。

本文在式11算法的基础上进行优化。在实际训练和识别中,因式11需要进行大量的浮点数运算导致其效率大幅度降低。因此,本文将其放大100倍并使用移位代替除法,然后采用去尾法近似。由式(12~14)结果可得到式15的各项参数。在16位运算下,7位精度的式15比式11精度更高,运算速度更快。

0.299×27=38.27238 (12)
0.587×27+38.272 mod 1=75.40875 (13)
0.114×27+75.408 mod 1=15 (14)
Gray=38R+75G+15B7 (15)

为进一步提高效率,MRDC模型采用式15对图像进行先期快速灰度图转化。

2.2 基于SKNet的特征重构

SKNet为轻量的网络结

22,使用非线性方法使得感受野的尺寸根据激励因素自动变化,可达到随着输入尺度的不同自动地调整接受区域大小的目的。

SKNet先进行Split操作,采用分组卷积的方法对于不同大小的卷积核进行完整卷积得到ŨÛ。随后进行Fuse操作融合信息,根据式16得到U,有

U=Ũ+Û (16)

然后输出acbc两个矩阵,以实现对权重的选择。最后进行Select操作,按照式17融合不同尺寸的Feature map,有

Vc=acŨ+bcÛ,    ac+bc=1 (17)

大量使用残差网络的YOLOv3未使用Darknet⁃53的全连接层,如图4所示,在主干网络3个尺度的输出端后分别加入SK注意力机制模块,重新赋予权重以实现特征重构。

图4 SKNet特征重构图

Fig.4 SKNet feature reconstruction

2.3 MRDC模型设计

结合对灰度图转化算法的优化,基于SKNet的特征重构与跳帧追踪检测算法,MRDC模型可在YOLOv3的基础上进一步提高准确率。模型步骤如下:

(1)采用优化后的灰度图转化算法对原始样本数据进行维数约减。

(2)自动判断是否需要进行归一化处理。为了适配更多的数据集,使MRDC模型有更好的扩展性,当数据集尺寸不一致时对其进行归一化处理。

(3)采用加入注意力机制后的YOLOv3算法对处理后的数据进行训练,利用SKNet进行特征重构,在实验中调整各项参数以得到最小损失的模型并进行预测,在经过非极大值抑制后得到预测结果,整体流程如图5所示。

图5 模型训练与预测流程图

Fig.5 Model training and prediction process

(4)对视频进行预测时,每5帧取其中的第1帧,在对取到的第1帧预测前,将其从BGR格式转为灰度图,然后使用训练得到的模型进行预测。

(5)为保持预测结果并实现追踪目标,对其中第1帧预测得到的预测框坐标(xul,yul)(xdr,ydr)与先进陶瓷零件在两帧之间平移的像素Δx进行计算,如式(18~19)所示,当n=4时可分别得到另外4帧的框选坐标(xul',yul')(xdr',ydr')

xul'=i=1nxul+Δxi (18)
xdr'=i=1nxdr+Δxi (19)

将每一帧视频重新拼接得到输出视频,预测视频具体流程如图6所示。

图6 视频预测流程图

Fig.6 Video forecasting process

3 实验过程和结果

基于YOLOv3与SKNet注意力机制的MRDC模型使用Python语言,并利用Keras框架搭建了Darknet⁃53网络;硬件为处理器i7⁃9700K、内存16 GB和显卡NVIDIA RTX 2070 Super;操作系统为Ubuntu 16.04 LTS。

3.1 实验准备

受齐齐哈尔市某特种陶瓷厂委托,采用MRDC模型解决实际先进陶瓷零件生产中的无接触筛选问题。但在其目标检测分类的研究中,未发现公开数据集。

3.1.1 图像数据集建立

多批次运用数码设备采集数据,每次得到1 000张900×900像素的数量在1~9之间不等、位置散乱的先进陶瓷零件图,并将其制作为数据集,图例如图7所示。

图7 数据集示例图

Fig.7 Sample data set diagram

使用开源工具labelImg将图片中的每个零件位置进行标注并设定分类,在全部标注后可得到包含了对象的位置和分类的1 000个XML格式的标注文件,最终得到先进陶瓷零件目标检测分类数据集。

3.1.2 视频采集

采集得到数段宽高比为900×900、格式为mp4的视频,用于实时测试模型效果。为逐列展示视频中的零件,每隔25~35帧对视频进行截图,如图8所示,后1张截图的第1、2列零件与前1张截图的2、3列零件相同。

图8 视频示例图

Fig.8 Video examples

使用Cisco公司发布的开源H.264编码器Openh264对视频进行编码与解码。从视频截取的图像均为BRG格式,而训练所使用的样本为灰度图,使用在灰度图样本下训练得到的模型对视频进行目标检测与分类将直接导致准确率大幅下降。因此需要将每1帧图像从BRG格式快速转化为灰度图进行目标检测和分类。

3.2 数据预处理与SKNet部署

将每个数据标注文件中存放的多个先进陶瓷零件的位置信息与图像中的先进陶瓷零件一一对应,使用十次交叉验证方法将数据集分为10份,并将其中的1份作为测试集,剩下的9份作为训练集。同时对数据使用随机旋转角度、随机水平翻转以及随机裁剪等增强策略,读取的bbox生成对应的3种尺寸的存储类别和真实框的中心宽高置信度的Label,Feed之前将图片Resize为416像素×416像素,最后将其转化为灰度图输入。

在Darknet⁃53的主干网络后加入3个SK注意力机制模块后得到使用SKNet进行特征重构后的模型。分别对原始YOLOV3模型和特征重构后的模型进行实验,检视两次实验的Loss,比对实验所得mAP,判定进行特征重构对多目标实时检测分类模型的价值。

3.3 模型训练与测试

在训练前修改YOLOv3的相关配置与参数,设置学习率为0.000 1,当Epoch达到100时结束训练,设置Batch_size为4,使用10%的数据作为测试集。调整SKNet的各项参数,设置额外路径数量SKNet_M为2,每个路径的基数SKNet_G为32,Fuse操作参数数量SKNet_r为16,参数含义与数值如表2所示。

表2 部分实验参数表
Table 2 Partial experimental parameters
参数名参数含义参数值
Epoch 迭代次数 100
Learning_rate 学习率 1e-4
Batch_size 单次训练样本数 4
Val_split 测试集比率 0.1
SKNet_M 额外路径数量 2
SKNet_G 单个路径基数 32
SKNet_r Fuse操作参数 16

3.4 实验结果

学习率Learning rate直接影响模型训练结果,若学习率过高会导致无法优化,而学习率过小易导致优化过慢,出现掉入局部最优的情

23。学习率设置为0.000 1,每次训练得到训练Loss和验证Loss,经过100次训练后发现训练Loss和验证Loss都逐渐趋近于0,其中第88次训练得出的模型效果较好,两次训练得到的Loss如图9所示。特征重构后模型的部分训练结果如表3所示。

图9 损失函数曲线对比

Fig.9 Loss function comparison

表3 损失值详情表
Table 3 Details of loss values
训练次数学习率训练Loss验证Loss
1 1e-4 2 008.094 6 1 661.706 9
2 1e-4 408.425 1 345.792 8
3 1e-4 237.299 2 337.524 5
4 1e-4 163.146 7 148.025 8
5 1e-4 128.500 2 108.083 7
6 1e-4 100.291 2 88.648 2
7 1e-4 83.377 5 91.307 1
10 1e-4 71.504 9 72.533 9
20 1e-4 29.863 3 30.137 2
30 1e-4 25.028 3 23.990 0
50 1e-4 23.909 6 22.583 4
70 1e-4 21.078 3 19.899 4
88 1e-4 18.840 0 18.431 9

在训练100次后选择损失较低的第88次训练得到的模型,由于先进陶瓷零件对框选的精度要求不高,但是对分类判断的准确性要求较高,所以精确率Precision相比于召回率Recall更有参考意义,但由于最后精确性较高,故以平均精确率均值mAP值作为判断标准。多批次采集图像数据,每次采集含多个陶瓷零件的图像1 000张作为数据集,经过验证后得出原模型的mAP值为97.57%,加入SKNet特征重构后模型的mAP值为99.19%,这说明本文模型很好地实现了对目标的检测与分类,两种模型的平均精确率AP值如图10所示。

图10 平均精确率

Fig.10 Average precision

使用数据集外的多个图片样本对模型进行验证。测试后的结果表明,本文提出的MRDC模型时间效率较高,可以准确地对图片样本进行目标检测与分类。随机选择1个图片样本进行可视化测试,保持硬件配置不变,经过32 ms左右得到如图11所示结果,8个个体的坐标均输出正确,其本身被框选的位置无误,分类准确率为100%。

图11 图片样本可视化结果图

Fig.11 Visualization results of sample images

使用视频样本对模型进行验证。经测试可知,MRDC模型可以高效准确地对视频中出现的每一个先进陶瓷零件进行框选、分类和追踪,可以保证每分钟检测450~550个零件。每25~35帧截取图片,如图12所示,视频中的先进陶瓷零件位置标记与分类准确率为100%。

图12 视频样本可视化结果图

Fig.12 Visualization results of sample video

4 结 论

本文针对先进陶瓷零件无接触检测分类问题,基于YOLOv3算法与SKNet注意力机制提出了多目标实时检测分类模型MRDC,可对先进陶瓷零件图像进行快速灰度图转化,实时追踪视频中所有零件的位置并加以分类,克服了靠机械先期过滤加人工筛选方式成本高、准确性低和零件损伤率高的问题,可高效准确地对大批量的先进陶瓷零件进行目标检测与成品判断并可视化输出。在测试中,平均精确率可达到99.19%;批量测试中,由生成的图片样本可视化结果图和视频样本可视化结果图可知零件标注框位置准确、追踪及时,因此MRDC模型可以很好地投入生产实践。下一步将继续研究如何提高先进陶瓷零件的平均精确率,以及在更复杂的视频背景下检测分类更多样本的同时保证精确率,使得先进陶瓷零件无接触检测分类可以更好地适用于更加复杂的大批量生产实践中。同时,也将基于现有的多目标实时检测分类模型进一步优化生产流水线,配置自动分拣装置,实现不合格零件的自动剔除,改变实际生产现状,达到在每条生产线上减少6名分拣员的同时实现全天候24 h自动化生产的目的,这有助于更高效准确地对次品零件进行二次回收,节约成本,减少废品产出,提高了经济效益的同时保护了环境,有助于先进陶瓷产业的发展。

参考文献

1

张脉官姚素媛. 谈高性能陶瓷辊棒的发展趋势[J]. 佛山陶瓷2020305):5-8,20 [百度学术

Zhang MaiguanYao Suyuan. Development trend of high performances ceramic rollers[J]. Foshan Ceramics2020305): 5-8,20. [百度学术

2

李若尘朱悠翔孙卫民. 基于深度学习的木材缺陷图像的识别与定位[J]. 数据采集与处理2020353):494-505 [百度学术

Li RuochenZhu YouxiangSun Weiminet al. Recognition and localization of wood defect image based on deep learning[J]. Journal of Data Acquisition and Processing2020353): 494-505. [百度学术

3

柳云鹤李苏. 基于遗传算法的2D机械零件分类识别[J]. 传感器与微系统2020398):148-151 [百度学术

Liu YunheLi Su. Classification and recognition of 2D mechanical parts based on GA[J]. Transducer and Microsystem Technologies2020398): 148-151. [百度学术

4

匡逊君赵文倩李明富. 基于图像不变矩和SVM的机械零件分类识别[J]. 制造业自动化20123415):65-68,72 [百度学术

Kuang XunjunZhao WenqianLi Mingfu. Classifying and recognizing of mechanical parts based on the image invariant moment and SVM[J]. Manufacturing Automation20123415): 65-68,72. [百度学术

5

岳晓峰刘天. 基于粒子群算法的RBF神经网络零件表面缺陷分类[J]. 电子技术与软件工程20194):18-20 [百度学术

Yue XiaofengLiu Tian. Particle swarm algorithm based RBF neural network for part surface defect classification[J]. Electronic Technology & Software Engineering20194): 18-20. [百度学术

6

Hinton G ESalakhutdinov R R. Reducing the dimensionality of data with neural networks[J].Science20063135786):504-507. [百度学术

7

Girshick RDonahue JDarrell Tet al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. ColumbusIEEE Computer Society2014580-587. [百度学术

8

Girshick R. Fast R-CNN[C]//Proceedings of International Conference on Computer Vision.SantiagoIEEE Press20151440-1448. [百度学术

9

Ren SHe KGirshick Ret al. Faster R-CNN: Towards real-time object detection with region proposal networks[C]//Proceedings of Advances in Neural Information Processing Systems. MontrealMIT Press201591-99. [百度学术

10

Redmon JDivvala SGirshick Ret al. You only look once: Unified, real-time object detection[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Las VegasIEEE Computer Society2016779-788. [百度学术

11

Redmon JFarhadi A. YOLOv3: An incremental improvement[EB/OL]. (2018-04-08)[2020-05-28]. https://arxiv.org/abs/1804.02767. [百度学术

12

阮激扬. 基于YOLO的目标检测算法设计与实现[D]. 北京北京邮电大学2019 [百度学术

Ruan Jiyang. Design and implementation of object detection algorithm based on YOLO[D]. BeijingBeijing University of Posts and Telecommunications2019. [百度学术

13

曹香滢孙卫民朱悠翔. 基于科优先策略的植物图像识别[J]. 计算机应用20183811):3241-3245 [百度学术

Cao XiangyingSun WeiminZhu Youxianget al. Plant image recoginiton based on family priority strategy[J]. Journal of Computer Applications20183811): 3241-3245. [百度学术

14

张婷婷章坚武郭春生. 基于深度学习的图像目标检测算法综述[J]. 电信科学2020367):92-106 [百度学术

Zhang TingtingZhang JianwuGuo Chunshenget al. A survey of image object detection algorithm based on deep learning[J]. Telecommunication Science2020367): 92-106. [百度学术

15

杨建伟涂兴子梅峰漳. 基于深度学习优化YOLOv3算法的芳纶带检测算法研究[J]. 中国矿业2020294):67-72 [百度学术

Yang JianweiTu XingziMei Fengzhanget al. Research on aramid band detection algorithm based on deep learning optimization YOLOv3 algorithm[J]. China Mining Magazine2020294): 67-72. [百度学术

16

黄健张钢. 深度卷积神经网络的目标检测算法综述[J]. 计算机工程与应用20205617): 12-23 [百度学术

Huang JianZhang Gang. Survey of object detection algorithms for deep convolutional neural networks[J]. Computer Engineering and Applications20205617): 12-23. [百度学术

17

HE KZHANG XREN Set al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. [S.l.]IEEE Computer Society2016770-778. [百度学术

18

徐守坤倪楚涵吉晨晨. 基于YOLOv3的施工场景安全帽佩戴的图像描述[J]. 计算机科学2020478): 233-240. [百度学术

Xu ShoukunNi ChuhanJi Chenchenet al. Image caption of safety helmets wearing in construction scene based on YOLOv3[J]. Computer Science2020478): 233-240. [百度学术

19

冯加明储茂祥杨永辉. 改进YOLOv3算法的车辆信息检测[J]. 重庆大学学报2020616): 1-12 [百度学术

Feng JiamingChu MaoxiangYang Yonghuiet al. Vehicle information detection based on improved YOLOv3 algorithm[J]. Journal of Chongqing University2020616): 1-12. [百度学术

20

唐标程志万李博. 基于改进的YOLOv3在电力场景中的人群识别[J]. 电子器件2020433):563-568 [百度学术

Tang BiaoCheng ZhiwanLi Boet al. Crowd behavior recognition based on improved YOLOv3 in electric power surveillance[J]. Journal of Electron Devices2020433): 563-568. [百度学术

21

刘美. 彩色图像灰度化算法的研究与实现[D]. 长春长春理工大学2019 [百度学术

Liu Mei. Research and implementation of color-to-gray algorithm[D]. ChangchunChangchun University of Science and Technology2019. [百度学术

22

李彬王平赵思逸. 基于双重注意力机制的图像超分辨重建算法[J]. 图学学报2021422): 206-215. [百度学术

Li BinWang PingZhao Siyi. Image super-resolution reconstruction based on dual attention mechanism[J]. Journal of Graphics2021422): 206-215. [百度学术

23

周明浩朱家明. 基于卷积神经网络的机械零件表面缺陷分类[J]. 农业装备与车辆工程20195711):19-23 [百度学术

Zhou MinghaoZhu Jiaming. Classification of surface defects of mechanical parts based on convolution neural network[J]. Agricultural Equipment & Vehicle Engineering20195711): 19-23. [百度学术

您是第位访问者
网站版权 © 南京航空航天大学学报
技术支持:北京勤云科技发展有限公司
请使用 Firefox、Chrome、IE10、IE11、360极速模式、搜狗极速模式、QQ极速模式等浏览器,其他浏览器不建议使用!