-
公开(公告)号:CN116439825B
公开(公告)日:2024-07-30
申请号:CN202310419392.4
申请日:2023-04-14
Applicant: 合肥工业大学
IPC: A61B34/10 , G06T7/00 , G06T7/60 , G06T7/62 , G06N3/0455 , G06N3/0895 , A61B34/20
Abstract: 本发明提供一种面向微创术中辅助决策的体内三维信息测量系统,涉及微创手术技术领域。本发明中接收医生任意的感兴趣区域标注,获取多样性测量数据,实现术中主动选择性和高参考性,在一定程度上提高了手术的质量;提出通过精准重建的数字化模型获取手术部位的三维信息,经计算提供手术部位的真实长度、面积和体积,辅助医生在术中更精准决策,有效避免手术意外、术中大出血等风险,保障手术安全性,有效提高手术医疗质量。此外,引入的基于双目内窥镜的在线自监督学习深度估计方法,其所使用的双目深度估计网络具有快速过学习的能力,能够利用自监督信息不断适应新场景,进而保证在复杂多变的环境下计算三维测量信息的准确性。
-
公开(公告)号:CN114140386B
公开(公告)日:2024-07-16
申请号:CN202111262340.8
申请日:2021-10-28
Applicant: 合肥工业大学
IPC: G06T7/00 , G06T5/70 , G06T5/60 , G06N3/0464 , G06N3/08 , G06V10/46 , G06V10/74 , G06V10/774 , G06V10/82
Abstract: 本发明提供一种远程手术指导可视化人工选择曲线的跟踪方法、系统和装置,涉及远程手术指导技术领域。本发明在选定的初始帧图像上进行手术路径的规划与标注,再通过实时传输,实现在手术端交互界面准确输出需要动态追踪的路径曲线,并通过目标跟踪等相关技术,实现后续手术过程中所述路径曲线的实时动态跟踪,有效提高了手术定位精度、减少手术损伤、优化手术路径及提高手术成功率;提高了远程手术指导的准确度及缩减远程手术时间。
-
公开(公告)号:CN116993805A
公开(公告)日:2023-11-03
申请号:CN202310419428.9
申请日:2023-04-14
Applicant: 合肥工业大学
IPC: G06T7/62 , G06T7/33 , G06T7/593 , G06T17/20 , G06V10/40 , G06V10/82 , G06N3/045 , G06N3/0455 , G06N3/0464 , G06N3/088 , G06N3/0895 , G06N3/09 , G06N3/0985
Abstract: 本发明提供一种面向手术规划辅助的术中剩余器官体积估计系统,涉及微创手术领域。本发明通过术前组织网格模型与术中组织网格模型的匹配关系,将剩余器官体积的测量转化为术前组织网格模型对应区域的体积测量,避免了组织复杂形变与不可见区域对体积预测的干扰;并且考虑了术中与医生的交互,接收医生针对感兴趣区域的简单标注,获得精准的体积测量信息,实现术中主动选择性和高参考性。此外,引入的基于双目内窥镜的在线自监督学习深度估计方法,其所使用的双目深度估计网络具有快速过学习的能力,能够利用自监督信息不断适应新场景,进而确保术中组织网格模型的精度。
-
公开(公告)号:CN115429581A
公开(公告)日:2022-12-06
申请号:CN202210922132.4
申请日:2022-08-02
Applicant: 合肥工业大学
Abstract: 本发明提供了一种重症卧床患者面部状态记录仪器,涉及面部追踪技术领域。本发明通过摄像头组件采集面部图像,配合控制组件获取患者面部在摄像头坐标系下的面部位置信息和面部姿态信息,在患者面部发生运动时,针对平移运动,通过控制组件确定患者面部在病床坐标系下的面部位移信息,进而控制第一驱动组件调整半球型透明壳的位置,使患者头部位于半球型透明壳的球心;同时,针对头部姿态的变化,通过控制组件确定患者面部在球心坐标系下的面部偏转信息,进而控制第二驱动组件调整摄像头组件在半球型透明壳上的位置,使所述摄像头组件位于患者面部正前方,实现对患者面部的追踪,且设备占用空间能够大幅减小。
-
公开(公告)号:CN115079706A
公开(公告)日:2022-09-20
申请号:CN202210978998.7
申请日:2022-08-16
Applicant: 合肥工业大学
IPC: G05D1/02
Abstract: 本发明提供一种人机协同控制移动式机器人智能避障方法和系统,涉及移动式机器人智能避障技术领域。本发明:判断机器人是否抵达目标点,若是则完成当前任务,否则所述机器人自主避障网络根据自主避障算法,结合机器人当前状态,输出机器人当前时刻的线速度和角速度,逐步向目标点靠近;所述人机协同网络根据实时的激光雷达传感数据,输出人机交互动作,若发出信号=1,则进入S3,若不发出信号=0,则重复执行本步骤;机器人发出指令信号至服务端,并接收返回的远程控制信号,进入上一步骤。通过构建深度强化学习训练模型,训练移动式机器人自主选择发出信号交由更高智能的智能体决策——人,能够在复杂的环境和机器人冻结问题中完成避障任务。
-
公开(公告)号:CN113643825A
公开(公告)日:2021-11-12
申请号:CN202110765456.7
申请日:2021-07-06
Applicant: 合肥工业大学
IPC: G16H70/20 , G16H10/60 , G06F40/295 , G06F40/242 , G06F40/289 , G06F40/268 , G06N5/02
Abstract: 本发明提供一种基于临床关键特征信息的医疗案例知识库构建方法、系统、存储介质和电子设备,涉及医疗案例知识库技术领域。本发明在医疗案例知识库的构建过程中充分融合了医生的临床诊断推理过程,实现了医生的专业知识与机器算法的协同,使案例构建流程符合医生知识推理的过程并实现了案例知识的“可解释”;提出的医疗案例知识库构建的整体化框架,包括案例筛选、分类、评价,根据案例构建的全流程而不仅是某一子任务的优化,以总体案例质量保证的为总目标实现医疗案例知识库的智能化构建,实现了案例的质量控制。
-
公开(公告)号:CN113297997A
公开(公告)日:2021-08-24
申请号:CN202110604889.4
申请日:2021-05-31
Applicant: 合肥工业大学
Abstract: 本发明提供了一种非接触式生理检测机器人的6自由度人脸追踪方法和装置,涉及视觉伺服技术领域。本发明在接收到人脸位姿信息后,首先根据机器人的末端姿态,将人脸位姿信息转换到基坐标系,根据约束求得机器人末端的最优目标位姿,然后计算当前面部信息和理想面部姿态的误差。然后使用比例控制器求得相机的期望位姿,并求逆运动学解。最后,控制机器人移动到目标姿态。并在每接收到一组面部信息时,重复这个过程。因此本发明采用的6自由度控制和基于位置的视觉伺服,能够保证追踪效果并简化处理过程,实现主动配合患者完成人脸图像采集,完成非接触式生理检测任务。
-
公开(公告)号:CN118899060A
公开(公告)日:2024-11-05
申请号:CN202410421561.2
申请日:2024-04-09
Applicant: 合肥工业大学
IPC: G16H20/30 , G06V40/20 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于可见光相机设备的康复动作质量优化方法和系统,涉及图像处理技术领域。本发明通过获取可见光视频,提取可见光视频中三维骨骼数据;基于预设的康复动作质量评价模型对三维骨骼数据进行处理,得到康复动作质量评价结果。本发明设计了一种基于可见光相机的康复动作质量优化方法,能够基于低成本的可见光相机进行基于骨骼的康复动作质量评价,能够减轻康复患者的康复成本。
-
公开(公告)号:CN118446392A
公开(公告)日:2024-08-06
申请号:CN202410525426.2
申请日:2024-04-29
Applicant: 合肥工业大学
IPC: G06Q10/047 , G06N3/092 , G06T15/00 , G06T7/73 , G06T7/80 , G06T5/50 , G06V10/774 , G06N3/0464
Abstract: 本发明提供一种基于NeRF和强化学习的路径规划方法、系统及电子设备,涉及路径规划技术领域。本发明通过强化学习方法使得机器人能够通过与环境的交互不断学习,并根据实时反馈优化路径规划策略。相较于基于微分平坦性的方法,强化学习方法具有更强的学习能力和适应性,无需依赖地图的先验条件,能够在复杂和动态的环境中快速调整路径规划策略。
-
公开(公告)号:CN118212363A
公开(公告)日:2024-06-18
申请号:CN202410414721.0
申请日:2024-04-08
Applicant: 合肥工业大学
Abstract: 本发明提供一种基于点和面显示表达任意维度辐射场的方法、系统、存储介质和电子设备,涉及场景建模领域。本发明提出一种自适应的场景表达方式,实现构建一种能够在任意维度上使用的辐射场的混合表达,能够完成对结构化和非结构化场景紧凑的表达,借助点特征的描述实现对精细化物体的渲染,借助面的场景表达实现对结构化的物体的准确描述,在保证高质量的渲染质量的同时,减少场景的内存占用。
-
-
-
-
-
-
-
-
-