Please wait a minute...

大连海洋大学学报  2022, Vol. 37 Issue (5): 866-872    DOI: 10.16535/j.cnki.dlhyxb.2022-104
  |
基于改进YOLOv5深度学习的海上船舶识别算法
张晓鹏,许志远*,曲胜,邱文轩,翟泽宇
大连海洋大学 航海与船舶工程学院,辽宁 大连 116023
Recognition algorithm of marine ship based on improved YOLOv5 deep learning
ZHANG Xiaopeng,XU Zhiyuan*, QU Sheng, QIU Wenxuan, ZHAI Zeyu
College of Navigation and Ship Engineering, Dalian Ocean University, Dalian 116023, China
下载:  HTML  PDF (7354KB) 
输出:  BibTeX | EndNote (RIS)      
摘要 为提高多目标和雾天环境下的海上船舶识别准确率,提出一种基于改进YOLOv5深度学习的海上船舶识别模型(SE-NMS-YOLOv5),该模型结合暗通道去雾算法(Dark channel),并融合了SE(squeeze-and-excitation)注意力机制模块和改进非极大值抑制模型,对船舶数据集进行训练和测试。结果表明:在船舶识别任务上,SE-NMS-YOLOv5模型的准确率、召回率和F1值分别为90.6%、89.9%、90.5%,检测效果比YOLOv5模型分别提升了6.3%、4.8%、5.8%,比YOLOv4模型分别提升了19.1%、19.0%、19.3%;在雾天船舶识别任务上,SE-NMS-YOLOv5-Dark channel模型的准确率、召回率和F1值分别为88.1%、87.2%、87.6%,比SE-NMS-YOLOv5模型的检测结果分别提升了13.8%、13.3%、13.5%。研究表明,SE-NMS-YOLOv5海上船舶识别模型有效地解决了多目标和雾天条件下,海上船舶检测准确率低的问题,提升了船舶检测和识别的整体效果。
服务
把本文推荐给朋友
加入引用管理器
E-mail Alert
RSS
作者相关文章
张晓鹏
许志远
曲胜
邱文轩
翟泽宇
关键词:  船舶识别  YOLOv5  特征提取  深度学习    
Abstract: In order to improve the accuracy of marine ship recognition in multiple targets and foggy environments, a marine ship recognition model SE-NMS-YOLOv5 is proposed based on improved YOLOv5 deep learning. The model is combined with Dark channel defogging algorithm, SE(squeeze-and-congestion) attention mechanism module and improved non-maximum suppression model for training and testing of ship data sets. The results showed that in the ship recognition task, there was the accuracy of 90.6%, recall rate of 89.9% and SE-NMS-YOLOv5 F1 value of 90.5%, and compared with YOLOv5 model, the detection effect is improved by 6.3%, 4.8% and 5.8%. Compared with YOLOv4, the model improved 19.1%, 19.0% and 19.3%. In foggy conditions, the accuracy, recall rate and F1 value of SE-NMS-YOLOv5-Dark channel model were 88.1%, 87.2% and 87.6%, compared with SE-NMS-YOLOv5 model, the detection results are improved by 13.8%, 13.3% and 13.5%, respectively. The findings indicate that the marine ship recognition method based on SE-NMS-YOLOv5 effectively solves the problem of low accuracy of marine ship detection on multiple targets and foggy conditions, and improve the overall effect of ship detection and recognition.
Key words:  ship recognition    YOLOv5    feature extraction    deep learning
               出版日期:  2022-11-14      发布日期:  2022-11-14      期的出版日期:  2022-11-14
中图分类号:  S 972  
  TP 391.4  
基金资助: 辽宁省教育厅科研项目(QL201911)
引用本文:    
张晓鹏, 许志远, 曲胜, 邱文轩, 翟泽宇. 基于改进YOLOv5深度学习的海上船舶识别算法[J]. 大连海洋大学学报, 2022, 37(5): 866-872.
ZHANG Xiaopeng, XU Zhiyuan, QU Sheng, QIU Wenxuan, ZHAI Zeyu. Recognition algorithm of marine ship based on improved YOLOv5 deep learning. Journal of Dalian Ocean University, 2022, 37(5): 866-872.
链接本文:  
https://xuebao.dlou.edu.cn/CN/10.16535/j.cnki.dlhyxb.2022-104  或          https://xuebao.dlou.edu.cn/CN/Y2022/V37/I5/866
[1] 张胜茂, 孙永文, 樊伟, 唐峰华, 崔雪森, 伍玉梅. 面向海洋渔业捕捞生产的深度学习方法应用研究进展[J]. 大连海洋大学学报, 2022, 37(4): 683-337.
[2] 赵梦, 于红, 李海清, 胥婧雯, 程思奇, 谷立帅, 张鹏, 韦思学, 郑国伟. 融合SKNet与YOLOv5深度学习的养殖鱼群检测[J]. 大连海洋大学学报, 2022, 37(2): 312-319.
[3] 何津民, 张丽珍. 基于自注意力机制和CNN-LSTM深度学习的对虾投饵量预测模型[J]. 大连海洋大学学报, 2022, 37(2): 304-311.
[4] 王书献, 张胜茂, 朱文斌, 孙永文, 杨昱皞, 隋江华, 沈烈, 沈介然. 基于深度学习YOLOV5网络模型的金枪鱼延绳钓电子监控系统目标检测应用[J]. 大连海洋大学学报, 2021, 36(5): 842-850.
[5] 文莉莉, 孙苗, 邬满. 基于注意力机制和Faster R-CNN深度学习的海洋目标识别模型[J]. 大连海洋大学学报, 2021, 36(5): 859-865.
[6] 杨鹤, 于红, 刘巨升, 杨惠宁, 孙哲涛, 程名, 任媛, 张思佳. 基于BERT+BiLSTM+CRF深度学习模型和多元组合数据增广的渔业标准命名实体识别[J]. 大连海洋大学学报, 2021, 36(4): 661-669.
[7] 袁红春, 刘慧, 张硕, 陈冠奇. 基于深度学习和典型相关分析的渔情预测方法[J]. 大连海洋大学学报, 2021, 36(4): 670-678.
[8] 贺琳, 张雨, 巴韩飞. 基于注意力机制和深度学习模型的外来海洋生物命名实体识别[J]. 大连海洋大学学报, 2021, 36(3): 503-509.
[9] 王羽徵, 程远, 毕海, 于秋玉, 刘丹. 基于深度学习VGG网络模型的海洋单细胞藻类识别算法[J]. 大连海洋大学学报, 2021, 36(2): 334-339.
[10] 俞伟聪, 郭显久, 刘钰发, 刘婷, 李雅薇. 基于轻量化深度学习Mobilenet-SSD网络模型的海珍品检测方法[J]. 大连海洋大学学报, 2021, 36(2): 340-346.
[11] 于红. 水产动物目标探测与追踪技术及应用研究进展[J]. 大连海洋大学学报, 2020, 35(6): 793-804.
[12] 袁红春, 张硕. 基于Faster R-CNN和图像增强的水下鱼类目标检测方法[J]. 大连海洋大学学报, 2020, 35(4): 612-619.
[13] 杨眉, 魏鸿磊, 华顺刚. 一种基于神经网络的扇贝图像识别方法[J]. 大连海洋大学学报, 2014, 29(1): 70-74.
No Suggested Reading articles found!
Viewed
Full text


Abstract

Cited

  Shared   
  Discussed