-
公开(公告)号:CN117687742A
公开(公告)日:2024-03-12
申请号:CN202311700565.6
申请日:2023-12-12
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于改进A*与EECBS的多智能体集群调度方法、系统及电子设备,首先采用栅格法建模静态环境地图;然后为需要任务的智能体分配任务;接着通过考虑转弯成本的A*算法为智能体规划路径;之后检测智能体在前w个时间步长是否发生碰撞;随后采用窗口EECBS的上层算法选择特定结点扩展来解决碰撞;重复上述过程,达到最大时间步长输出结果。本发明通过考虑转弯成本对A*算法改进,减少智能体的转弯次数,进而减少碳排放量;通过修改EECBS的碰撞检测函数对EECBS算法改进,既加快多智能体集群调度时间效率,又保证解的完备性。
-
公开(公告)号:CN113658679B
公开(公告)日:2024-02-23
申请号:CN202110787244.9
申请日:2021-07-13
Applicant: 南京邮电大学
IPC: G16H50/20 , G16H30/00 , G06V10/774 , G06V10/25 , G06V10/764
Abstract: 本发明公开了一种医学图像下牙槽神经损伤风险自动评估方法,包括以下步骤:获取训练集,所述训练集包括CBCT图像和曲面断层片图像;对CBCT图像的下颌阻生智齿与下牙槽神经管的接触关系进行判断;对训练集图像进行数据增强的方式进行扩充;获取多分辨率目标检测模型;训练多分辨率目标检测模型预测下颌阻生智齿与下牙槽神经管的图像位置;使用非极大值抑制算法求得最终下颌阻生智齿与下牙槽神经管位置以及两者的接触关系;本发明能全自动判断曲面断层片图像中智齿与神经管的具体位置,同时,对智齿与神经管的接触关系进行预测,有效地降低了口腔颌面科医生人工定位的工作量与
-
公开(公告)号:CN117036365A
公开(公告)日:2023-11-10
申请号:CN202311304496.7
申请日:2023-10-10
Applicant: 南京邮电大学
IPC: G06T7/00 , G06V10/80 , G06V10/764 , G06V10/774 , G06V10/82 , G06V10/52 , G06V10/25 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于深度注意力网络的第三磨牙牙根数目识别方法,采集曲面体层图像及对应的三维锥形束CT图像,获得第三磨牙牙根位置及类别标注信息形成数据集;以锥形束CT图像的第三磨牙牙根类别标注信息为金标准训练,模型包括主干特征提取网络、特征融合传递网络和输出网络。主干特征提取网络通过加入不同尺度通道注意力检测模块,提取多尺度特征;特征融合传递网络利用卷积操作和跨阶段局部模块进行自上而下和自下而上采样,融合并传递多尺度特征;输出网络同时输出第三磨牙牙根位置及数目分类预测结果。从而全自动同时完成第三磨牙牙根位置预测和数目分类任务,提高了识别效率和准确率,并减少口腔解剖结构重叠对识别准确率的影响。
-
公开(公告)号:CN116203956A
公开(公告)日:2023-06-02
申请号:CN202310167360.X
申请日:2023-02-27
Applicant: 南京邮电大学
IPC: G05D1/02
Abstract: 本发明提出了一种融合安全距离和全局信息的速度障碍规划方法、系统,其方法包括:首先对Theta*算法进行改进,在评估函数中增加安全距离函数,保证规划的全局路线是安全可靠的;然后按照改进后的安全Theta*路径算法规划出的预设路径前进,如果遇到动态障碍物,则根据融合全局信息的速度障碍法计算出避开障碍物的最佳偏移角度,进行局部路径规划,不断避开障碍物,直至到达目的点。本发明针对有静态障碍物和动态障碍物的复杂环境下的无人节点避障问题,对Theta*算法进行改进,并在速度障碍法的局部规划里融合安全的全局信息,从而规划出安全可靠的路线。
-
公开(公告)号:CN116167014A
公开(公告)日:2023-05-26
申请号:CN202310167361.4
申请日:2023-02-27
Applicant: 南京邮电大学
IPC: G06F18/25 , G06F18/241 , G06N3/0464 , G06N3/048 , G06N3/084 , G06V10/44 , G06V10/764 , G06V10/82 , G06V10/80 , G10L25/63 , G10L25/03 , G10L25/30
Abstract: 本发明公开了一种基于视觉和语音的多模态关联型情感识别方法及系统,在视觉数据部分,提取指定数量的图像帧并调节为统一分辨率,利用3D卷积神经网络提取时序特征,得到指定尺寸的特征图;利用带滑动窗口的自注意力神经网络提取空间特征,将输出的特征图利用全局平均池化处理为指定大小的一维向量,得到视觉深层情感特征。在语音数据部分,使用声学分析框架提取声学特征,利用自注意力网络提取语音深层情感特征。最后将视觉和语音深层情感特征进行特征级融合,再通过分类器得到情感类型。本发明能够有效的提取视频数据在时间和空间维度的情感信息,并将视觉信息与语音信息相融合,提高了情感分类的识别效率与准确率。
-
公开(公告)号:CN113222910B
公开(公告)日:2022-11-01
申请号:CN202110449357.8
申请日:2021-04-25
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于感知损失的X射线头影测量图像特征点提取方法,涉及X射线头影测量图像技术领域,包括以下步骤:预先获取X射线头影测量图像,并作为数据输入;对X射线头影测量图像计算偏移距离图;将获取的偏移距离图输入至生成对抗网络模型,训练该模型预测得到每个特征点的偏移距离图,基于预测的偏移距离图,得到每个特征点的坐标,并以此作为该待测试X射线头影测量图像的特征点坐标。本发明网络模型耗时较短,节省硬件成本,而且无需对原始X射线头影测量图像进行裁剪,保证了数据的完整性,提高了特征点定位的准确性。
-
公开(公告)号:CN115049709A
公开(公告)日:2022-09-13
申请号:CN202210578192.9
申请日:2022-05-26
Applicant: 南京邮电大学
Abstract: 本发明公开了一种面向脊柱微创手术导航的深度学习点云腰椎配准方法,包括:采集术前和术中的脊柱CT图像;将脊柱CT图像输入训练好的三维V型深度分割网络模型进行分割,获取术前和术中的腰椎CT图像;通过形态学方法消除腰椎CT图像中的孤立点;通过点云转换方法将消除孤立点后的术前和术中的腰椎CT图像转换为相应的腰椎三维点云集合;对术前和术中的腰椎三维点云集合进行最近邻点迭代,完成术前与术中的脊柱CT图像中的腰椎配准;本发明能够减少图像拍摄次数同时实现腰椎图像的快速配准。
-
公开(公告)号:CN111626330B
公开(公告)日:2022-07-26
申请号:CN202010324557.6
申请日:2020-04-23
Applicant: 南京邮电大学
IPC: G06V10/75 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于多尺度特征图重构和知识蒸馏的目标检测方法与系统,该方法首先利用骨干网络Darknet‑53提取特征,深层特征通过上采样和浅层特征张量拼接生成多尺度特征图;然后采用特征重标定策略来自动获取特征图中每个通道的权重,依照权重提升有用的特征并抑制无用特征,再用残差模块融合顶层特征的语义信息和底层特征的细节信息;再将骨干网络中批量归一化层的γ系数引入到剪枝目标函数中进行训练,根据修剪阈值将低于阈值的γ系数所在通道从模型中去除;最后将训练好的YOLOv3基准模型作为教师网络,剪枝后的模型作为学生网络进行知识蒸馏。本发明改善了在大范围内不同大小物体检测的精度问题,同时降低了模型的计算量,提高了模型检测速度。
-
公开(公告)号:CN109360232B
公开(公告)日:2021-04-06
申请号:CN201811049134.7
申请日:2018-09-10
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于条件生成对抗网络的室内场景布局估计方法和装置,该方法包括:运用训练集训练条件生成对抗网络,将待测室内图像输入至训练完成的条件生成对抗网络,预测生成与输入图像尺寸相同的布局边缘图;估计待测室内图像的消失点,从每个消失点等角度间隔引出射线,生成若干扇形区域;根据平均边缘强度最大准则确定采样扇形区域;对预测布局边缘图加高斯模糊,然后对采样扇形区域进行采样生成布局候选项;选出与预测布局边缘图最为相似的空间布局作为最终的布局估计结果。本发明为生成场景布局边界图提供更加完整的原始信息,无需显式假设数据的参数分布,能提高布局估计的准确率,在室内场景理解和三维重建任务中具有重要的应用价值。
-
公开(公告)号:CN110532911A
公开(公告)日:2019-12-03
申请号:CN201910763722.5
申请日:2019-08-19
Applicant: 南京邮电大学
Abstract: 本发明公开了一种协方差度量驱动小样本GIF短视频情感识别方法及系统。该方法首先从数据集中抽取样本构成支撑集和查询集,并将抽取的样本按照设定帧率分割为若干候选帧图像;然后利用C3D提取样本中的序列特征,同时利用CNN提取帧图像的视觉特征,然后逐帧进行哈达玛内积运算,得到最终的图像视觉特征,再采用ConvLSTM技术提取二者融合后的高层语义特征;再将支撑集样本提取的特征和查询集样本提取的特征进行拼接后通过协方差度量模块度量查询集样本和支撑集样本每类情感之间的相似性,最后利用softmax分类器预测最终的结果。本发明能有效关注GIF中图像的情感信息,同时兼顾视频流的时序特征,适用于小样本情况下的多分类视频情感分析,提高了分类准确率。
-
-
-
-
-
-
-
-
-