-
公开(公告)号:CN115115732B
公开(公告)日:2025-05-16
申请号:CN202210749874.1
申请日:2022-06-28
Applicant: 南京信息工程大学
Abstract: 本发明涉及非接触医疗技术领域,具体是基于有限元法改进的非均匀软组织复合网格模型,包括:根据CT图生成粗糙的四面体网格;通过CT图中软组织CT值计算四面体的柔度从而获取其边长细化阈值;以四面体边长细化阈值为判断条件利用四面体二分法对其进行细化;构建非均匀的软组织复合网格模型;基于有限元法与弹簧质点法对构建的非均匀软组织复合网格模型进行形变计算,软组织网格模型中控制点形变利用基于改进的有限元法计算,基于控制点形变利用弹簧质点法对非控制点进行形变计算;本发明结合SMS和FEM算法进一步提高模型表面的精细度,并提供对FEM算法的改进在确保变形的精确度的情况下提升了实时性,使得实时性和精确性达到了一个新的平衡。
-
公开(公告)号:CN118839701B
公开(公告)日:2025-04-01
申请号:CN202411328293.6
申请日:2024-09-24
Applicant: 南京信息工程大学
IPC: G06F40/30 , G06F18/10 , G06F18/2415 , G06F40/232 , G06F40/126 , G06F40/205 , G06F40/186 , G06N3/0464 , G06N3/0455 , G06N3/0895
Abstract: 本发明公开了一种融合交互式会话语境和会话者身份属性的情感识别方法,采集由多人参与的交互式会话记录,构建参与者会话队列;创建语境增强的交互式话语列表,通过提示驱动的情绪模板生成情绪感知增强的个性化话语表达,进行数值化处理并输入到SimCSE模型生成话语的情感嵌入特征;情感嵌入特征被组织成相同数量的批次,输入构建的EmoNet情绪编码器计算信息熵损失和正则化对比学习损失,将两种损失融合为混合对比学习损失用于训练EmoNet网络,优化情感识别的精确度;使用训练好的EmoNet对新输入的数据进行情感分类。本发明适用于大规模互动对话数据的多种应用场景,有效提升了情感识别的自动化水平和适应性。
-
公开(公告)号:CN119668405A
公开(公告)日:2025-03-21
申请号:CN202411735094.7
申请日:2024-11-29
Applicant: 南京信息工程大学
IPC: G06F3/01 , H04L67/52 , H04L69/163 , H04L69/16
Abstract: 本发明公开了一种基于追踪器定位共享的虚拟现实控制方法,通过TCP网口获取目标用户穿戴的虚拟现实追踪器回传的定位数据;对所述定位数据进行解码、解析、滤波、校准步骤,提取用户的精确位置和姿态信息,将所述用户的精确位置和姿态信息存储到同步队列和共享内存的数据结构,所述同步队列和共享内存的数据结构;将用户的精确位置和姿态信息发送到Unity场景中,更新虚拟环境中的用户位置和动作。优点:通过搭建的Unity实时渲染平台和开发优化的虚拟现实追踪器算法,并且通过TCP网口发送虚拟现实追踪器获得的定位数据到主机地址,并在主机上完成数据的接收和分类处理,实现多个追踪器的定位共享,从而提高用户的虚拟现实体验。
-
公开(公告)号:CN119293740B
公开(公告)日:2025-03-07
申请号:CN202411833608.2
申请日:2024-12-13
Applicant: 南京信息工程大学
IPC: G06F18/25 , G06F18/241 , G06V40/16 , G06V40/10 , G06V10/80 , G06N3/0455 , G06N3/08 , G06V10/82
Abstract: 本发明公开了一种多模态对话情感识别方法,涉及多模态情感识别和人机交互技术领域,包括:利用人脸识别模型和姿态识别工具分别得到表情时序特征和姿态时序特征;注意力模块对表情和姿态特征进行自适应加权融合,获得融合的视觉模态特征;构建上下文语境信息的新表达并基于提示的情感建模技术得到情感表示并通过文本编码器提取文本模态特征;使用数据向量化模型提取说话者对应语音的模态特征;提出跳跃连接多头注意力跨模态融合方法,对多模态的模态特征进行跨模态对齐与融合,之后通过情感分类器模块进行情感识别。本发明有效解决了传统多模态情感识别中关键情感线索识别不足及融合不充分的问题,提高了情感识别的准确性和鲁棒性。
-
公开(公告)号:CN119342207A
公开(公告)日:2025-01-21
申请号:CN202411886091.3
申请日:2024-12-20
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种视频裁剪方法及裁剪视频的质量评价方法,属于计算机视觉和视频处理技术领域。首以原视频数据及其需要裁剪视频的宽高比作为输入参数,使用视频自动裁剪模型得到裁剪视频,同时输出中间结果显著图。为了评价裁剪结果的质量,设计了一套基于显著性区域检测和特征分析的裁剪结果质量评价方法,主要包含内容完整性、内容一致性和时序稳定性。最终,通过加权求和方法,综合内容完整性、时序稳定性和内容一致性得分,得到裁剪视频的整体质量评价。本发明提出的视频裁剪方法能够自动确定最佳裁剪位置,并通过定量评价方法综合评估裁剪后视频的质量,从而提供一个全面的解决方案,显著提升视频裁剪的效果和质量。
-
公开(公告)号:CN119313827A
公开(公告)日:2025-01-14
申请号:CN202411847445.3
申请日:2024-12-16
Applicant: 南京信息工程大学
Abstract: 本申请公开了一种基于边缘约束和明暗恢复形状的多视点卫星图像数字表面模型重建方法、装置、设备及存储介质,本申请涉及数字表面模型技术领域,该方法包括基于目标地区的多视点卫星图像构建初始地面三维模型;根据多视点卫星图像和初始地面三维模型进行预设边缘融合,获得目标边缘信息;基于目标边缘信息构建基于明暗恢复形状的目标能量函数;基于目标能量函数对初始地面三维模型进行细化,获得目标地面三维模型。本申请通过多视点卫星图像的边缘信息丰富初始地面三维模型的边缘信息,基于融合后更精细的目标边缘信息和明暗恢复形状技术确定目标能量函数,进而基于目标能量函数对初始地面三维模型进行优化,提高最终目标地面三维模型的重建精度。
-
公开(公告)号:CN118552061B
公开(公告)日:2024-10-25
申请号:CN202411019441.6
申请日:2024-07-29
Applicant: 南京信息工程大学
IPC: G06Q10/0637 , G06Q50/14 , G06Q50/26 , G06F16/9535 , G06N20/00 , G06F18/23 , G06F18/25 , G06F18/27
Abstract: 本发明公开了一种基于气象数据舒适度感知的旅游推荐度计算方法,该方法通过整合和分析气象数据与城市特色信息,提供个性化和动态的旅游目的地及时间推荐;实施步骤包括:采集目标城市的气象数据和特色数据;数据预处理,包括数据清洗和标准化;异常和缺失数据的处理,使用机器学习方法根据地理位置相关性进行数据修正;计算综合舒适度、风湿指数、温湿指数,用于评估城市的气候舒适度;根据气候舒适度指数和旅游用户评价数据,计算城市旅游的推荐度;最终,基于推荐度指标,对城市特色景点进行评分和推荐。本发明能够提高用户的旅游体验舒适度和满意度,同时提升城市旅游服务质量和经济效益。
-
公开(公告)号:CN118587511A
公开(公告)日:2024-09-03
申请号:CN202411054265.X
申请日:2024-08-02
Applicant: 南京信息工程大学
IPC: G06V10/764 , G06V10/74 , G06V10/82 , G06N3/0464 , G06N3/084 , G06V10/80
Abstract: 本发明公开了一种SPECT‑MPI图像分类方法及系统,该方法包括将待分类的SPECT‑MPI图像预处理,并将预处理后的SPECT‑MPI图像与标准图像集中的标准图像进行配对,获得多个样本对;其中,标准图像为分类模型训练集中随机选取的预处理后的图像;采用分类模型对多个样本对处理,获得SPECT‑MPI图像的分类结果,提高分类方法的噪声鲁棒性。
-
公开(公告)号:CN118538367A
公开(公告)日:2024-08-23
申请号:CN202411003151.2
申请日:2024-07-25
Applicant: 南京信息工程大学
Abstract: 本发明公开了生物行为识别领域的一种基于面部和体态行为感知的渐进性放松训练方法,包括,播放预先设计的用于渐进性放松训练的音频;在音频播放过程中,执行以下训练操作:获取被训练人的图像数据;其中图像数据包括面部图像和躯体图像;基于面部图像,通过Blaze Face算法获取面部关键点信息,面部关键点信息包括双眼关键点信息和嘴巴关键点信息;根据双眼关键点信息计算双眼开合比,根据嘴巴关键点信息计算嘴巴开合比;基于躯体图像,通过Blaze Pose算法获取身体关键点信息,计算头‑肩夹角;根据双眼开合比、嘴巴开合比和头‑肩夹角,确定眼部特征值、嘴巴特征值和体态特征值;根据眼部特征值、嘴巴特征值和体态特征值,控制训练音频的播放。
-
公开(公告)号:CN118380096A
公开(公告)日:2024-07-23
申请号:CN202410535744.7
申请日:2024-04-30
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种基于算法追踪与虚拟现实的康复训练交互方法及装置,获取用户手部的图像信息,确定完整的连续帧图像信息;使用MediaPipe手部跟踪代码,从用户完整的连续帧图像信息中捕捉用户的手部信息;将手部信息在Unity实时渲染平台中进行动作显示;在Unity实时渲染平台中进行动作显示的同时,确定用户手部动作的完成精度和完成度;计算用户的康复动作得分;根据用户的康复动作得分向用户提供相应的语音和图形反馈。优点:使得康复训练正变得更加个性化和智能化;能够根据患者的具体情况和反应,实时调整训练计划。这种个性化的训练方法有助于确保每位患者都能获得最适合自己的治疗,从而最大限度地提高康复效果。
-
-
-
-
-
-
-
-
-