-
公开(公告)号:CN116525145A
公开(公告)日:2023-08-01
申请号:CN202310526165.1
申请日:2023-05-10
Applicant: 电子科技大学长三角研究院(湖州)
Abstract: 本发明公开了一种基于动态融合模块的面部动态视频图像疼痛评估方法,首先对UNBC‑McMaster Shoulder Pain Expression Archive数据集进行数据平衡处理,然后在预训练模型Resnet101网络中,基于Non‑local框架改进得到动态融合模块,建立图像空间特征提取模型,通过空间特征提取模型提取每一帧图像空间特征信息,再将所提取的特征信息输入到长短时记忆网络中提取面部动态视频图像相应的时序信息,进一步提取相邻帧之间时序信息,实现对面部疼痛的识别,最后实现疼痛的自动评估。本发明的方法旨在辅助医生对患者进行长时间的疼痛监控与评估,为临床疼痛评估提供一种辅助手段,对评估临床上特殊患者的疼痛场景具有潜在应用前景。
-
公开(公告)号:CN115984816B
公开(公告)日:2024-11-22
申请号:CN202310017951.9
申请日:2023-01-06
Applicant: 电子科技大学 , 电子科技大学长三角研究院(湖州)
IPC: G06V20/58 , G06V20/40 , G06V10/82 , G06V10/62 , G06V10/80 , G06N3/0464 , G06N3/0442 , G06N3/049 , G06N3/08
Abstract: 本发明公开了一种融合时间信息的改进YOLOV3交通视频显著目标检测方法,利用有经验驾驶员的Hard Attention获取交通场景的显著目标图,再建立融合时间信息的改进YOLOV3并进行训练优化,训练完成后进行显著目标检测。本发明的方法首次提出融合Hard Attention信息和时间信息的交通场景的显著目标检测,融合时间信息的改进YOLOV3相对现有全目标检测模型不仅通过融合Hard Attention信息特征只关注与驾驶安全相关的重要目标,还通过融合当前检测帧前10帧内的时间信息,极大地扩展了时间信息范围,通过融合更多低级特征的尺度预测,在黑暗场景和突然出现的超车等场景中,更准确有效地检测出对驾驶环境重要的目标;相对现有显著性预测模型能够专注于显著性区域,准确检测显著性区域内的目标和位置。
-
公开(公告)号:CN115984816A
公开(公告)日:2023-04-18
申请号:CN202310017951.9
申请日:2023-01-06
Applicant: 电子科技大学 , 电子科技大学长三角研究院(湖州)
IPC: G06V20/58 , G06V20/40 , G06V10/82 , G06V10/62 , G06V10/80 , G06N3/0464 , G06N3/0442 , G06N3/049 , G06N3/08
Abstract: 本发明公开了一种融合时间信息的改进YOLOV3交通视频显著目标检测方法,利用有经验驾驶员的Hard Attention获取交通场景的显著目标图,再建立融合时间信息的改进YOLOV3并进行训练优化,训练完成后进行显著目标检测。本发明的方法首次提出融合Hard Attention信息和时间信息的交通场景的显著目标检测,融合时间信息的改进YOLOV3相对现有全目标检测模型不仅通过融合Hard Attention信息特征只关注与驾驶安全相关的重要目标,还通过融合当前检测帧前10帧内的时间信息,极大地扩展了时间信息范围,通过融合更多低级特征的尺度预测,在黑暗场景和突然出现的超车等场景中,更准确有效地检测出对驾驶环境重要的目标;相对现有显著性预测模型能够专注于显著性区域,准确检测显著性区域内的目标和位置。
-
公开(公告)号:CN116665145B
公开(公告)日:2024-10-22
申请号:CN202310605751.5
申请日:2023-05-25
Applicant: 电子科技大学长三角研究院(湖州)
Abstract: 本发明提供了一种基于知识蒸馏的轻量化交通注视目标检测方法,应用于交通注视目标检测领域。针对当前聚焦交通注视目标检测的模型普遍存在参数较大,检测速度较慢以及基于全目标检测范式开发的轻量化的模型对交通注视目标检测的准确度存在不足的问题,本发明提供了一种基于知识蒸馏的轻量化交通注视目标检测方法,能够用教师模型提取到吸引驾驶员注意的显著区域特征和表征注视目标位置和类别的上下文信息来蒸馏学生模型提取到的对应的特征,从而在显著减少模型参数的同时,取得快的检测速度和高的检测准确度。本发明为交通注视目标检测的应用提供了一个有效的方法,为高级辅助驾驶系统提供了另一种策略。
-
公开(公告)号:CN118722671A
公开(公告)日:2024-10-01
申请号:CN202410713274.9
申请日:2024-06-04
Applicant: 电子科技大学长三角研究院(湖州)
IPC: B60W40/08
Abstract: 本发明属于自动驾驶技术领域,公开了一种基于眼动数据的驾驶工作负载计算方法,应用于辅助驾驶领域监控驾驶员的工作状态。本发明使用眼镜式眼动仪采集眼动数据,计算驾驶员工作负载,从而辅助评估驾驶员的工作状态和工作符合。为此,本发明建立一个真实场景下驾驶员眼动的数据集。然后,选择了十项项眼动数据眼动数据指标进行统计,并计算了十项眼动指标的权重值。最后使用十项眼动指标权重和真实眼动数据加权计算不同驾驶场景或行为事件下驾驶工作负载。本发明为辅助驾驶系统监控驾驶员工作负荷提供了一中有效的方法,为智能驾驶或高级辅助驾驶系统提供了另一种策略。
-
公开(公告)号:CN116453078B
公开(公告)日:2025-03-04
申请号:CN202310268288.X
申请日:2023-03-14
Applicant: 电子科技大学长三角研究院(湖州)
IPC: G06V20/56 , G06V10/82 , G06V10/774 , G06N3/045 , G06N3/0464 , G06N3/048
Abstract: 本发明提供了一种基于显著性先验的交通注视目标检测方法,应用于交通注视目标检测领域。针对当前研究人员把视觉显著性和目标检测作为两个独立的任务来对待,而驾驶场景中,经验丰富的驾驶员会在选择性注意机制的引导下密切关注和驾驶任务相关的物体,忽略掉大量和驾驶任务不相关的信息,从而实现安全驾驶。本发明模拟驾驶员对交通场景的感知,聚焦检测吸引驾驶员注意的物体。为此,本发明建立一个可用于注视目标检测的数据集。然后,显著区域引导模块预测的显著区域用来引导目标检测模块更多地关注注视目标,从而提高模型的检测准确度。本发明为交通注视目标检测提供了一个有效的方法,为智能驾驶或高级辅助驾驶系统提供了另一种策略。
-
公开(公告)号:CN116525145B
公开(公告)日:2025-02-11
申请号:CN202310526165.1
申请日:2023-05-10
Applicant: 电子科技大学长三角研究院(湖州)
Abstract: 本发明公开了一种基于动态融合模块的面部动态视频图像疼痛评估方法,首先对UNBC‑McMaster Shoulder Pain Expression Archive数据集进行数据平衡处理,然后在预训练模型Resnet101网络中,基于Non‑local框架改进得到动态融合模块,建立图像空间特征提取模型,通过空间特征提取模型提取每一帧图像空间特征信息,再将所提取的特征信息输入到长短时记忆网络中提取面部动态视频图像相应的时序信息,进一步提取相邻帧之间时序信息,实现对面部疼痛的识别,最后实现疼痛的自动评估。本发明的方法旨在辅助医生对患者进行长时间的疼痛监控与评估,为临床疼痛评估提供一种辅助手段,对评估临床上特殊患者的疼痛场景具有潜在应用前景。
-
公开(公告)号:CN118722672A
公开(公告)日:2024-10-01
申请号:CN202410713272.X
申请日:2024-06-04
Applicant: 电子科技大学长三角研究院(湖州)
IPC: B60W40/09 , B60W50/00 , G06V20/40 , G06V20/52 , G06V20/56 , G06V20/59 , G06V40/16 , G06V40/18 , G06V10/82 , G06N3/0442 , G06N3/045 , G06N3/0464
Abstract: 本发明属于驾驶辅助系统技术领域,公开了一种基于眼动记录和摄像监控的多模驾驶行为预测方法,应用于ADAS系统对危险驾驶动作进行警示或提醒。针对当前驾驶行为预测任务缺乏驾驶员眼动信息的使用问题,使用眼镜式眼动仪采集眼动数据,预测驾驶行为,辅助对危险驾驶行为进行警示或提醒。为此,本发明建立一个真实场景下驾驶员驾驶行为数据集。然后,分别使用四个通道网络提取不同模态数据集特征再融合各特征进行驾驶行为预测。最后,在真实驾驶场景下进行驾驶行为预测,可以提前5.156s准确预测74.02%的驾驶行为。本发明为ADAS系统预测驾驶行为提供了一种有效的方法。
-
公开(公告)号:CN116756628A
公开(公告)日:2023-09-15
申请号:CN202310572811.8
申请日:2023-05-18
Applicant: 电子科技大学长三角研究院(湖州)
IPC: G06F18/241 , G06F18/25 , G06F18/214 , G06N3/0442 , G06N3/0464
Abstract: 本发明提供了一种膨胀长短时记忆网络的动态脑信息解码的分类方法,针对当前视觉分类解码中缺少对时间信息充分使用的缺点,以及动态视频和BOLD信号具有时间变化性和内容复杂性的特点,为充分利用时间信息,使用了不同系数的膨胀卷积提取多尺度的信息;为更好的利用视觉皮层信息积累和整合的特点,对多尺度的时间信息进行整合;为充分学习时间序列间的关系,使用循环神经网络中LSTM(长短时记忆神经网络)学习时间序列的相关性;本发明在多种方法的比较下获得较好的解码性能,并且在公开的15类fMRI数据集上也取得了良好效果。本发明对于由动态视频诱发的大脑信息的类别解码提供了一个良好的方法。
-
公开(公告)号:CN119152558A
公开(公告)日:2024-12-17
申请号:CN202411166988.9
申请日:2024-08-23
Applicant: 电子科技大学长三角研究院(湖州)
IPC: G06V40/16 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于面部动作编码的婴幼儿疼痛表情评估方法,包括:根据FLACC评分将视频数据分为三个等级,之后对视频数据进行预处理;将经过预处理的视频帧送入一个AU检测网络,得到每一帧的AU检测结果,将与疼痛相关的AU结果相加得到每一帧的疼痛评分,根据疼痛评分选择一定数量的视频帧作为疼痛表情关键帧;建立基于深度学习方法的疼痛表情识别网络,输入提取的关键帧提取时间及空间特征,得到最终的疼痛等级结果。本发明的方法通过结合面部动作编码选取疼痛表情关键帧,使用深度学习方法提取时间及空间特征,最终得到疼痛等级结果,可以作为一种临床环境下的客观诊断方法,辅助医护人员进行婴幼儿疼痛表情评估,便于进行后续的疼痛管理。
-
-
-
-
-
-
-
-
-