登录    注册    忘记密码

期刊文章详细信息

基于YOLO深度卷积神经网络的复杂背景下机器人采摘苹果定位  ( EI收录)  

Apple positioning based on YOLO deep convolutional neural network for picking robot in complex background

  

文献类型:期刊文章

作  者:赵德安[1] 吴任迪[1] 刘晓洋[1] 赵宇艳[2]

Zhao Dean;Wu Rendi;Liu Xiaoyang;Zhao Yuyan(School of Electrical and Information Engineering,Jiangsu University,Zhenjiang 212013,China;School of Electronic and Electrical Engineering,Changzhou Institute of Information Technology,Changzhou 213164,China)

机构地区:[1]江苏大学电气信息工程学院,镇江212013 [2]常州信息职业技术学院电子与电气工程学院,常州213164

出  处:《农业工程学报》

基  金:国家自然科学基金(31571571);江苏高校优势学科建设项目(PAPD)

年  份:2019

卷  号:35

期  号:3

起止页码:164-173

语  种:中文

收录情况:AJ、BDHX、BDHX2017、CAB、CAS、CSA、CSA-PROQEUST、CSCD、CSCD2019_2020、EI、FSTA、IC、JST、PROQUEST、RCCSE、SCOPUS、ZGKJHX、核心刊

摘  要:为提高苹果采摘机器人的工作效率和环境适应性,使其能全天候的在不同光线环境下对遮挡、粘连和套袋等多种情况下的果实进行识别定位,该文提出了基于YOLOv3(you only look once)深度卷积神经网络的苹果定位方法。该方法通过单个卷积神经网络(one-stage)遍历整个图像,回归目标的类别和位置,实现了直接端到端的目标检测,在保证效率与准确率兼顾的情况下实现了复杂环境下苹果的检测。经过训练的模型在验证集下的m AP(meanaverageprecision)为87.71%,准确率为97%,召回率为90%,IOU(intersection over union)为83.61%。通过比较YOLOv3与Faster RCNN算法在不同数目、不同拍摄时间、不同生长阶段、不同光线下对苹果的实际检测效果,并以F1为评估值对比分析了4种算法的差异,试验结果表明YOLOv3在密集苹果的F1高于YOLOv2算法4.45个百分点,在其他环境下高于Faster RCNN将近5个百分点,高于HOG+SVM(histogram of oriented gradient+support vector machine)将近10个百分点。并且在不同硬件环境验证了该算法的可行性,一幅图像在GPU下的检测时间为16.69 ms,在CPU下的检测时间为105.21 ms,实际检测视频的帧率达到了60帧/s和15帧/s。该研究可为机器人快速长时间高效率在复杂环境下识别苹果提供理论基础。

关 键 词:收获机 机器视觉 图像识别 深度学习  采摘机器人 苹果识别  YOLO  

分 类 号:TP391.4]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心