-
公开(公告)号:CN115170942B
公开(公告)日:2023-10-17
申请号:CN202210880013.7
申请日:2022-07-25
Applicant: 大连海洋大学
IPC: G06V20/05 , G06V40/10 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/047 , G06N3/08 , G10L25/03 , G10L25/30 , G10L25/51
Abstract: 一种声音与视觉多级融合的鱼类行为识别方法,属于机器学习领域,解决依靠单一模态特征识别鱼类行为往往难以得到较好的效果的问题,要点是所述跳跃连接融合网络包括若干融合阶段网络,对应阶段的融合阶段网络将对应阶段的视觉特征提取阶段网络和声音特征提取阶段网络的输出特征图融合得到融合特征图,效果是充分挖掘模态关联信息,使各模态潜在表示交互信息最大化。
-
公开(公告)号:CN115690675A
公开(公告)日:2023-02-03
申请号:CN202211245772.2
申请日:2022-10-12
Applicant: 大连海洋大学
Abstract: 基于通道非降维注意力机制与改进YOLOv5的ESB‑YOLO模型养殖鱼群检测方法,属于计算机视觉领域。本发明充分应用基于通道非降维注意力机制与改进YOLOv5的养殖鱼群检测模型ESB‑YOLO来解决养殖鱼群目标检测任务。ESB‑YOLO模型通过通道非降维双重注意力机制ECBAM模块提升了YOLOv5的骨干网络对于的鱼类特征的提取能力;通过BiFPN模块提升了YOLOv5的特征融合网络的特征融合能力;并通过SPPF模块与BiFPN模块的轻量化设计降低了ECBAM模块带来的计算量。本发明在养殖场景上实现了养殖鱼群的目标检测,提升了目标模糊与气泡遮挡情况下养殖鱼群目标检测的效果,同时没有增加模型的计算时间,证明了基于通道非降维注意力机制与改进YOLOv5的ESB‑YOLO模型养殖鱼群检测方法的实用性。
-
公开(公告)号:CN118587539A
公开(公告)日:2024-09-03
申请号:CN202410624733.6
申请日:2024-05-20
Applicant: 大连海洋大学
IPC: G06V10/80 , G06V10/774 , G06V10/82 , G06V10/764 , G06V20/05 , G06V20/52 , G06V40/20 , G06N3/0464
Abstract: 本发明属于智能识别技术领域,提出了一种基于多模态交互融合网络的鱼类行为识别方法,要点在于构建包括全局平均池化层模块、多模态学习及融合模块、TAP模块、全连接层模块和Softmax分类器模块的Mul‑SEResNet50模型;将图像数据和Mel声谱图特征数据输入全局平均池化层模块得到视觉特征和声音特征;将视觉特征和声音特征输入多模态学习及融合模块得到多模态融合特征;将多模态融合特征输入TAP模块得到深层多模态融合特征向量;将深层多模态融合特征向量输入全连接层模块得到多模态融合特征整合信息;将多模态融合特征整合信息输入Softmax分类器模块,输出鱼类行为识别结果。本发明充分利用不同模态的信息,且能够更好地保留鱼类声音的最佳特征信息,识别准确率较高。
-
公开(公告)号:CN115690675B
公开(公告)日:2024-02-23
申请号:CN202211245772.2
申请日:2022-10-12
Applicant: 大连海洋大学
Abstract: 基于通道非降维注意力机制与改进YOLOv5的ESB‑YOLO模型养殖鱼群检测方法,属于计算机视觉领域。本发明充分应用基于通道非降维注意力机制与改进YOLOv5的养殖鱼群检测模型ESB‑YOLO来解决养殖鱼群目标检测任务。ESB‑YOLO模型通过通道非降维双重注意力机制ECBAM模块提升了YOLOv5的骨干网络对于的鱼类特征的提取能力;通过BiFPN模块提升了YOLOv5的特征融合网络的特征融合能力;并通过SPPF模块与BiFPN模块的轻量化设计降低了ECBAM模块带来的计算量。本发明在养殖场景上实现了养殖鱼群的目标检测,提升了目标模糊与气泡遮挡情况下养殖鱼群目标检测的效果,同时没有增加模型的计算时间,证明了基于通道非降维注意力机制与改进YOLOv5的ESB‑YOLO模型养殖鱼群检测方法的实用性。
-
公开(公告)号:CN106334667A
公开(公告)日:2017-01-18
申请号:CN201610853422.2
申请日:2016-09-27
Applicant: 大连海洋大学
Abstract: 本发明公开一种用于枝角类活体分级的装置,包括圆筒形的壳体(1),其特征在于:在壳体1)内设置有与其同轴的内筒(2),在内筒(2)内设置有电机(3),电机(3)的工作轴(4)的顶端连接有旋转支架(5),所述的旋转支架由三个在圆周上均匀分布的旋转臂(6)组成,在三个旋转臂6)下方分别连接有均不有多个孔眼的粗隔板7)、中间隔板(8)和细隔板(9),并且所述的所有隔板的宽度等于壳体(1)和内筒(2)之间半径的差值,粗隔板(7)上孔眼的直径大于中间隔板(8)上的孔眼的直径,中间隔板(8)上孔眼的直径大于细隔板(9)上孔眼的直径。
-
公开(公告)号:CN118397073A
公开(公告)日:2024-07-26
申请号:CN202410559545.X
申请日:2024-05-08
Applicant: 大连海洋大学
Abstract: 本发明提供了一种基于关键点和双目立体视觉估算养殖鱼类长度的方法,属于养殖鱼体长度测量技术领域。本发明在确定养殖鱼体长测量点方面,使用Yolov7Pose模型中的关键点检测方法确定养殖鱼体长测量点,减少边缘像素计算量,提高检测性能;在深度信息获取方面,通过双目视觉法获取深度信息,解决只能在固定距离完成养殖鱼体长测量的问题;最后结合养殖鱼关键点坐标信息与深度信息,提出养殖鱼体长计算方法,并针对真实养殖环境提出养殖鱼体长测量补偿机制。本发明所述方法解决了真实养殖环境下养殖鱼体长测量方法获取深度信息困难与确定养殖鱼体长测量点困难的问题,检测精度高,适用于养殖环境。
-
公开(公告)号:CN118262228A
公开(公告)日:2024-06-28
申请号:CN202410462719.0
申请日:2024-04-17
Applicant: 大连海洋大学
IPC: G06V20/05 , G06V10/774 , G06V20/40 , G06V10/80 , G06V10/82
Abstract: 本发明属于鱼类目标识别技术领域,提出一种基于自适应选择光流的水下鲁棒视频中鱼类目标分割方法,包括获取鱼类水下数据集,并将光流数据抽取出来;对视频帧和光流数据进行特征提取,并进行全局的质量评估和融合,得到多个层级的融合特征;对最高层的融合特征进行多尺度特征提取,在coarse‑to‑fine的解码器结构里设计嵌入了多维注意力模块,使用粗略定位图作为引导,得到解码器特征,并输出鲁棒水下鱼类分割模型;通过多输出选择性融合方法和鲁棒水下鱼类分割模型并融合得到预测结果;进行交叉熵损失计算和训练,得到鱼类目标分割系统;将待进行鱼类目标分割的鱼类水下视频输入鱼类目标分割系统中,得到鱼类目标分割结果。本发明能够得到更精准的分割结果。
-
公开(公告)号:CN115690565B
公开(公告)日:2024-02-20
申请号:CN202211190393.8
申请日:2022-09-28
Applicant: 大连海洋大学
Abstract: 本发明公开了融合知识与改进YOLOv5的养殖红鳍东方鲀目标检测方法,通过将先验知识引入目标检测过程中,在YOLOv5模型中增加先验知识融合模块,并在YOLOv5模型的YOLOHead预测网络中增加预测框聚合模块构建预测网络,提出了融合知识与改进YOLOv5的养殖红鳍东方鲀目标检测模型KAYOLO。KAYOLO模型充分利用养殖红鳍东方鲀的先验知识强化目标特征;通过预测框聚合个数指导聚合生成最终的预测结果,减少目标间的相互影响。本发明在红鳍东方鲀水下养殖场景提升了目标检测的精度,证明了融合知识与改进YOLOv5的养殖红鳍东方鲀目标检测方法的实用性。
-
公开(公告)号:CN117058232A
公开(公告)日:2023-11-14
申请号:CN202310933832.8
申请日:2023-07-27
Applicant: 大连海洋大学
IPC: G06T7/73 , G06V10/774 , G06V10/82 , G06V10/764 , G06N3/0464 , G06V10/80
Abstract: 本发明提出一种改进YOLOv8模型的养殖鱼群中鱼类目标个体的位置检测方法,采集养殖水域中的图像作为待检测图像并进行预处理;改进YOLOv8模型;将预处理后的图像输入到改进YOLOv8模型中得到特征图;通过预测目标的中心点坐标和边界框的尺度定位目标,得到原始图像上的候选预测框,并计算候选预测框的得分;根据候选预测框的得分,选取候选预测框中得分较高的一部分作为候选框,并且根据非极大值抑制算法去除重复的候选框,得到预测框;根据预测框检测预测框中鱼类目标个体的位置和大小以及鱼类目标个体的的类别,得到最终的目标检测结果,包括鱼类个体目标的位置信息和鱼类个体目标类别信息。本发明提高了养殖鱼群中鱼类目标个体的位置检测的准确性。
-
公开(公告)号:CN116993974A
公开(公告)日:2023-11-03
申请号:CN202310743077.7
申请日:2023-06-21
Applicant: 大连海洋大学
IPC: G06V10/26 , G06V20/40 , G06V20/70 , G06V20/05 , G06V10/422 , G06V10/44 , G06V10/54 , G06V40/10 , G06V40/20 , G06V10/771 , G06V10/80 , G06V10/764 , G06V10/82 , G06V10/77 , G06T7/269 , G06N3/0464 , G06N3/048 , G06N3/0455 , G06N3/0442 , G06N3/08
Abstract: 本发明提供一种多源信息引导的水下视频鱼类分割的方法,包括以下步骤:对水下视频数据集进行预处理,突出前景鱼类目标,得到边缘清晰的水下视频鱼类光流图;设计水下视频鱼类分割网络MSGNet,基于水下视频鱼类分割网络MSGNet,提取水下视频鱼类目标的外观特征和运动特征;设计多重互注意力引导模块M‑CAGM,使用互注意力增强水下鱼类不显著的外观特征以及存在背景干扰的运动特征;设计特征自适应融合模块FAFM,用来筛选并自适应融合增强后的鱼类的外观特征和运动特征,最终得到分割结果。本发明通过结合M‑CAGM和FAFM,构建了多源信息引导的水下视频鱼类分割网络MSGNet,有效解决了水下动态场景中因亮度衰减、水质混浊等导致的分割准确度低、鲁棒性差的问题。
-
-
-
-
-
-
-
-
-