-
公开(公告)号:CN118314567A
公开(公告)日:2024-07-09
申请号:CN202410398943.8
申请日:2024-04-03
Applicant: 常州大学
IPC: G06V20/64 , G06V20/58 , G06V10/40 , G06V10/44 , G06V10/82 , G06V10/80 , G06N3/0455 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及3D目标检测领域,具体涉及一种基于级联特征融合的3D目标检测方法及模型。方法包括:获取待检测区域的点云数据;对点云数据进行预处理,将点云数据转化为多个点柱;提取多个点柱中的稀疏特征,从稀疏特征中提取多层次的密集特征;对至少一层稀疏特征及至少两层次的密集特征进行级联融合,得到融合特征;基于融合特征检测目标。本发明可以提高3D检测中行人检测的准确性,以更好地保障自动驾驶过程中的行人安全。
-
公开(公告)号:CN112329684B
公开(公告)日:2024-04-30
申请号:CN202011276599.3
申请日:2020-11-16
Applicant: 常州大学
IPC: G06V40/20 , G06V10/25 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464
Abstract: 本发明涉及一种基于注视检测和交通场景识别的行人穿越马路意图识别方法,首先通过faster‑RCNN进行行人检测,进一步利用行人的运动信息搜索感兴趣目标,提取感兴趣目标的运动序列和局部交通场景序列;其次通过头部检测器检测感兴趣目标序列中的头部位置,并采用残差卷积神经网络来判断头部朝向,进而检测行人是否注视来车,同时提取头部朝向特征;然后通过卷积神经网络分类器对行人所处的局部交通场景进行多标签分类,并提取局部交通场景特征;最后利用全连接层处理拼接后的头部朝向特征与局部交通场景特征,实行对行人穿越/不穿越结果的识别。本发明使用多任务学习模式,可实现端到端地完成注视/非注视识别、穿越/不穿越识别以及交通场景分类。
-
公开(公告)号:CN117557979A
公开(公告)日:2024-02-13
申请号:CN202311142494.2
申请日:2023-09-06
Applicant: 常州大学
IPC: G06V20/58 , G06V40/20 , G06V10/25 , G06V10/44 , G06V10/46 , G06V10/62 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0442 , G06N3/045 , G06N3/0464 , G06N3/047 , G06N3/048
Abstract: 本发明涉及一种基于行人穿越意图预测网络的行人穿越意图预测方法,包括:获取自车速度S、行人i的人体姿势Ki、行人i在自车视角中的人体检测框中心点位置Ci以及行人i在自车视角中的类极坐标Pi;基于自车速度S,获取自车速度特征FS;基于行人i的人体姿势Ki,获取行人i的动作特征 基于行人i在自车视角中的人体检测框中心点位置Ci,获取行人i在自车视角中的人体检测框中心位置在时间维度上的特征 基于行人i在自车视角中的类极坐标Pi,获取行人i在自车视角中的类极坐标特征按照通道维度分别对特征FS、 及进行全局池化,并按元素相乘,得到多模态融合后的行人意图特征基于所述行人意图特征 得到行人穿越预测结果。本发明可以在交通场景中快速准确地预测行人穿越行为。
-
公开(公告)号:CN112329683B
公开(公告)日:2024-01-26
申请号:CN202011276595.5
申请日:2020-11-16
Applicant: 常州大学
IPC: G06V40/16 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明涉及一种多通道卷积神经网络人脸表情识别方法,首先通过Viola‑Jones人脸检测器和旋转校正从输入的灰度图像中检测出人脸区域,尽可能减少无关区域对人脸表情识别准确性的影响;其次将检测得到的人脸区域应用到深度图像和局部二值模式图像,得到三种具有互补性的人脸区域数据;然后采用单通道‑特征提取网络分别从三种类型的人脸区域数据中自动提取与表情相关的特征,并将提取得到的特征送入交互注意力融合模块中进行融合,该模块基于交互注意力机制提取任意两种人脸区域特征的空间相关性,从而实现了不同类型人脸区域的有效特征融合;最后将交互注意力融合模块输出的特征再次拼接融合后,通过全连接层进行特征变(56)对比文件BIAO YANG等.Facial ExpressionRecognition Using Weighted Mixture DeepNeural Network Based on Double-ChannelFacial Images.Translations and contentmining are permitted for academicresearch only.2017,第6卷4630-4640.Biao Yang等.Facial expressionrecognition based on dual-feature fusionand improved random forestclassifier.Multimedia Tools andApplications.2017,第77卷20477–20499.
-
公开(公告)号:CN116500402A
公开(公告)日:2023-07-28
申请号:CN202310234864.9
申请日:2023-03-13
Applicant: 常州大学
Abstract: 本发明涉及一种晶圆检测台的探针位置控制方法、装置及系统,方法包括:连续测量探针的位置信息,以预设的时间间隔对位置信息进行采样,得到采样信号,每得到一个新的采样信号,执行一次控制信号获取步骤;控制信号获取步骤包括:S1,将新的采样信号经过零阶保持器保持,得到采样数据xk;S2,将xk输入离散连续观测器,得到连续的估计位置信号x;S3,将x和探针期望位置信号r输入位置跟踪控制器,得到位置跟踪控制信号u;S4,将x和u作为扰动补偿器的输入,得到扰动补偿控制信号w;S5,将u和w相加,作为探针位置的控制输入信号。本发明能克服模型不确定性和外界干扰等因素的影响,提高探针运动位置的控制精度,且只需要用到探针位置的采样信号,更方便于工程应用。
-
公开(公告)号:CN109559299B
公开(公告)日:2023-07-25
申请号:CN201811373459.0
申请日:2018-11-19
Applicant: 常州大学
Abstract: 本发明公开了一种双果重叠果实的分离方法,包括:1、图像采集;2、果实图像获取:对采集图像提取R‑G色差图像,对其进行阈值分割,再通过一系列形态学运算获取果实图像;3、边缘检测粗化:对果实图像进行边缘检测后再粗化所检测边缘;4、迭代开运算操作:对果实图像进行减增迭代开运算操作直至图像果实二次消失;5、边缘检测细化:对4中图像果实二次消失前邻近开运算操作图像进行边缘检测并细化所检测边缘;6、边缘平滑:对细化后的边缘进行平滑;7、边缘叠加:将平滑后的细化边缘和3中粗化边缘叠加;8、分离线提取:基于叠加边缘信息水平垂直4指向搜索判别提取出双果重叠果实的分离线。本发明为双果重叠果实提供了一种有效的分离方法。
-
公开(公告)号:CN114937070A
公开(公告)日:2022-08-23
申请号:CN202210695752.9
申请日:2022-06-20
Applicant: 常州大学
IPC: G06T7/50 , G06T7/90 , G06T7/246 , G06V10/22 , G06V10/25 , G06V10/764 , G06T7/194 , G06T7/13 , G06T5/50 , G06N3/04 , G06V10/82
Abstract: 本发明涉及机器人应用技术领域,尤其涉及一种基于深度融合测距的移动机器人自适应跟随方法,包括利用单目相机获取深度图像和彩色图像;引入MaskR‑CNN算法,获得行人掩模和行人掩膜区域的深度像素的总数量;引入单目深度估计算法输出推理深度图像,替换相机深度图像中的无效像素点;利用掩膜从相机深度图像中提取行人区域深度像素点,准确测量人‑机距离;利用比例积分微分控制器调整目标行人和机器人之间的距离和角度偏差。本发明引入MaskR‑CNN实例分割算法和单目深度估计算法,再融合相机深度信息,计算目标行人和机器人的距离和角度,并将位置信息发送至机器人的比例微分积分控制模块,实现目标行人的稳定跟随。
-
公开(公告)号:CN114707722A
公开(公告)日:2022-07-05
申请号:CN202210338201.7
申请日:2022-04-01
Applicant: 常州大学
Abstract: 本发明涉及智能交通技术领域,尤其涉及一种基于记忆增强网络的连续行人轨迹预测的方法,包括自编码器用于编码输入信息,控制器则负责从键值记忆体中读写记忆;使用多跳注意力机制实现多模态轨迹预测,通过多跳迭代查询生成一条预测轨迹;通过解码器重构未来轨迹,再训练控制器从当前任务中选取一些典型键值记忆存入外部记忆体中,在当前任务中每隔一定周期回放之前一部分数据。本发明通过外部记忆体保存当前和以前的键值记忆,为了减缓神经网络的灾难性遗忘,使用稀疏经验回放方法减缓模型对之前任务的遗忘;针对行人未来轨迹的不确定性,引入多跳注意力机制用于生成合理的多模态轨迹,从而解码输出多模态轨迹。
-
公开(公告)号:CN114550160A
公开(公告)日:2022-05-27
申请号:CN202111358810.0
申请日:2021-11-17
Applicant: 常州大学
Abstract: 本发明提供了了一种基于三维点云数据和交通场景的汽车识别方法,包括基于多分辨率的逐柱特征提取网络、基于空间注意力的卷积检测框架和基于压缩‑激活注意力的检测头。本发明可通过上述三个特征模块,基于点云数据集,实现对交通场景的识别,有效提高车辆的检测效率和检测精度。
-
公开(公告)号:CN113837039A
公开(公告)日:2021-12-24
申请号:CN202111067533.8
申请日:2021-09-13
Applicant: 常州大学
Abstract: 本发明涉及卷积神经网络技术领域,涉及一种基于卷积神经网络的果实生长形态视觉辨识方法,包括以下步骤:S1、图像采集:采集果园不同形态的果实图像,并对图像进行标注;S2、图像增强:将采集到的图像进行数据增强以扩充数据集;S3、搭建卷积神经网络模型;S4、使用SGD优化器对网络参数进行优化;S5、使用训练完的最优模型对测试集进行检测,给出每个目标的预测框、类别和置信度。本发明基于深度学习技术提出了果实生长形态的辨识方法,该方法与Faster‑RCNN、YOLO算法相比,有更高的识别准确率和更快的识别速度,同时模型参数量也更少。
-
-
-
-
-
-
-
-
-