-
公开(公告)号:CN115272167A
公开(公告)日:2022-11-01
申请号:CN202210545711.1
申请日:2022-05-19
Applicant: 北京科技大学 , 北京科技大学顺德研究生院
Abstract: 本发明涉及一种跨模态图像生成和检测的方法及装置,属于图像处理和人工智能技术领域,能够实现跨模态生成医学影像,且完成目标检测;该方法包括:S1、获取两种以上模态的图像集并进行配准;S2、对图像集进行融合得到第一多模态融合图像;S3、利用第一多模态融合图像以及其对应的单模态图像对跨模态图像生成模型进行训练;S4、将第一多模态融合图像对应的单一模态图像输入跨模态图像生成模型中得到第二多模态融合图像;S5、将第二多模态融合图像和对应的第一多模态融合图像输入目标检测模型中进行训练;S6、对模型进行端到端调优,得到最终的跨模态图像生成模型和目标检测模型。
-
公开(公告)号:CN118013809B
公开(公告)日:2024-11-19
申请号:CN202410102321.6
申请日:2024-01-24
Applicant: 北京科技大学
IPC: G06F30/25 , G06F30/28 , G06T13/60 , G06F113/08 , G06F119/14
Abstract: 本发明涉及计算流体动力学领域,特别是指一种实时气液耦合仿真方法及装置,方法包括:获取待仿真的气液耦合系统;对气液耦合系统进行离散化处理,得到粒子;其中,粒子包括气体粒子、液体粒子以及边界粒子;根据液体粒子、边界粒子、纳维‑斯托克斯方程以及基于位置的动力学方法,建立液体动力学模型;根据气体粒子,建立气体动力学模型,根据液体动力学模型以及气体动力学模型,得到实时气液耦合仿真结果。本发明能有效提升气液耦合仿真的实时性能和仿真的高度真实感,适用于大规模需要实时多相流动态模拟的任务。
-
公开(公告)号:CN117034724A
公开(公告)日:2023-11-10
申请号:CN202310927403.X
申请日:2023-07-26
Applicant: 北京科技大学
IPC: G06F30/25 , G06F30/28 , G06T17/00 , G06F113/08 , G06F111/04 , G06F119/14
Abstract: 本发明公开了一种目标驱动控制流体模拟方法及系统,所述方法包括:对待模拟的目标进行三维建模,得到目标模型;对目标模型进行采样,将目标模型采样成在空间中均匀分布的点;其中,在对目标模型进行采样时,根据目标模型的整体均匀程度,将目标模型分为不同类型的模型,并针对不同类型的模型采用不同的采样方式;将采样得到的点作为控制流体的点,放置到流体的环境中,并基于采样方式对采样得到的点施加多种约束,通过多种约束驱动流体形成目标的形状。本发明的方案按照目标驱动控制流体的方法驱动流体生成目标,可视化流体驱动的环境,通过基于位置的不可压缩约束模型模拟驱动产生动力学交互,可以为影视、辅助医疗实现一个直观的流体流动过程。
-
公开(公告)号:CN115630586A
公开(公告)日:2023-01-20
申请号:CN202211110058.2
申请日:2022-09-13
Applicant: 北京科技大学
IPC: G06F30/28 , G06F30/25 , G06F113/08 , G06F119/14
Abstract: 本发明公开了一种基于光滑粒子流体动力学的空间自适应流体模拟方法,包括:将边界固体对象的三维模型转换为SDF模型;在模拟场景中导入流体粒子集,SDF模型及其梯度场;在单个模拟时间步长中,计算粒子的尺度函数值,同时应用尾流保护机制,延缓边界固体附近的精细粒子尺度函数值的衰减;计算粒子最佳尺度,由此对粒子进行分类,并依据粒子的类别调整粒子的尺度;对流体粒子进行动力学计算,同时处理流体粒子与边界固体的耦合,使用时间混合方案稳定数值场,更新粒子的物理属性以及边界固体的物理属性。本发明的方案在提升模拟效率的同时,可以更有效地细化流体与多个动态边界固体对象的耦合细节,并有效地捕捉流体表面以下的复杂动态行为。
-
公开(公告)号:CN114494347A
公开(公告)日:2022-05-13
申请号:CN202210073470.5
申请日:2022-01-21
Applicant: 北京科技大学
IPC: G06T7/246 , G06V40/16 , G06V40/18 , G06V20/64 , G06V10/44 , G06V10/48 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了单摄像头多模式视线追踪方法和装置、电子设备,属于人机交互技术领域,所述方法包括:通过注意力增强的自适应三维人脸对齐方法,将摄像头采集到的人脸信息进行对齐;标定人脸基准特征,并求解视线追踪过程中的人脸基准向量;采用三维人脸对齐结果,计算面部网格上多个关键点三角面的法向量;以三维人脸中心为起点表征基准投射向量,拟合视线转移矩阵,得到灵活头部在三维空间中的动态基准向量;建立待追踪用户的特异性信息;在持续的视线交互过程中,利用霍夫变换取得突出边缘的去噪图像中的人眼虹膜数据;依据人眼虹膜数据和人脸基向量,确定眼动参考向量,完成视线追踪,能够提升视线追踪的时效性且对硬件设备依赖性弱。
-
公开(公告)号:CN117830495B
公开(公告)日:2024-05-31
申请号:CN202410238890.3
申请日:2024-03-04
Applicant: 北京科技大学
Abstract: 本发明涉及计算机视觉特效技术领域,特别是指一种基于屏幕空间的SPH多相流体实时渲染方法及装置,包括:对多相流体的表面进行信息提取,获得纹理信息;根据纹理信息,对多相流体的进行表面平滑和表面重建;对表面平滑和表面重建后的多相流体进行着色计算,完成基于屏幕空间的SPH多相流体实时渲染。本发明对传统的面向单相流体的屏幕空间渲染管线进行了改进,增加了区分不同流体材质的流相分数纹理,发明所述的基于屏幕空间的SPH多相流体实时渲染方法。本方法能够渲染出多相流体混合与分离的效果,且在效率上接近传统的屏幕空间渲染方法,且可以扩展到基于粒子的多相流体模拟结果。
-
公开(公告)号:CN111784645B
公开(公告)日:2023-08-22
申请号:CN202010544835.9
申请日:2020-06-15
Applicant: 北京科技大学
IPC: G06T7/00 , G06T5/00 , G06N3/0464 , G06N3/084
Abstract: 本发明提供一种充填管道裂纹检测方法,属于采矿工业领域。所述方法包括:利用带有裂纹的管道图像和加噪处理后的所述带有裂纹的管道图像对图像去噪模型进行训练;利用带有裂纹的管道图像及同时带有雨滴和裂纹的管道图像对图像去雨滴模型进行训练;利用目标检测训练集对裂纹检测模型进行训练,其中,所述目标检测训练集中的每张管道图像被标注出裂纹位置;实时获取待检测的管道图像,利用训练好的图像去噪模型、图像去雨滴模型、裂纹检测模型依次对待检测管道图像进行去噪、去雨滴处理、对裂纹进行检测。采用本发明,能够对图像中的噪音以及雨滴进行修复,从而提高管道裂纹检测精度和检测效率。
-
公开(公告)号:CN113178001B
公开(公告)日:2023-07-04
申请号:CN202110353522.X
申请日:2021-04-01
Applicant: 北京科技大学 , 中国人民解放军总医院海南医院
IPC: G06T17/00 , G06T5/00 , G06T7/11 , G06F30/28 , G06F119/14
Abstract: 本发明公开了一种面向孔源性视网膜脱离的硅油填充模拟方法及电子设备,该方法包括:获取眼球连续医疗扫描图像,基于所述医疗扫描图像构建眼球三维模型;基于眼球三维模型,对液体与眼内腔交互边界进行受力模拟;对眼内腔中硅油与水进行相间耦合状态分析,使用拉格朗日方式表达流体间交互,并结合硅油及水与眼内腔交互边界的受力模拟结果,生成硅油填充术中不同硅油填充量下的眼球参数的可视化模拟结果,得到理论最佳硅油填充量。本发明通过客制化眼球模型构建,以及结合表面张力的不可压缩无散度流体动力学计算,得到理论最佳硅油填充量,可对手术过程起到辅助作用,减少术后硅油并发症发生概率,具有计算精度高、可视化效果逼真等优点。
-
公开(公告)号:CN115424730A
公开(公告)日:2022-12-02
申请号:CN202211035231.7
申请日:2022-08-26
Applicant: 北京科技大学 , 中国人民解放军总医院海南医院
Abstract: 本发明公开了一种辅助治疗裂孔性视网膜脱离的硅油填充模拟方法及装置,该方法包括:按照弹性固体建模方法构建患者的眼球壁模型,并采用基于数量密度的隐式迭代校正压力的方法保持眼球壁的不可压缩特性;针对术中在眼内腔填充硅油的场景,将硅油作为一种高粘性不可压缩牛顿流体,根据流体和弹性固体之间的耦合方法,模拟硅油和眼球壁之间的交互;对术后房水进入玻璃体腔内产生的由水、硅油和眼球壁组成的三相耦合环境进行模拟,模拟水和硅油在不混溶边界处发生的硅油乳化现象。本发明的技术方案按照弹性固体建模方法构建眼球壁,可视化填充环境,通过基于数量密度的体积不可压缩模型模拟填充产生的动力学交互,可以为手术治疗提供准确的定量分析。
-
公开(公告)号:CN119960600A
公开(公告)日:2025-05-09
申请号:CN202510042969.3
申请日:2025-01-10
Applicant: 北京科技大学
Abstract: 本发明公开了一种基于视觉的虚拟现实场景下手笔交互系统,系统包括:手部三维重建模块、手笔交互映射模块和交互呈现模块;一种基于视觉的虚拟现实场景下手笔交互方法,方法包括:S1、通过视觉传感器获取用户视角的手部图像;S2、将手部图像输入到构建好的图神经网络中进行双手三维重建得到模型;S3、预先设定抓握姿势,通过识别实际姿势和预设姿势区别,区分各微小手势变化;S4、设计几种较易区分的微小手势,映射到绘画系统的各功能中,形成手笔交互绘画系统;本发明让用户直观地在虚拟环境中进行创作,无需借助额外硬件,有效降低认知负荷和操作门槛,配合视听反馈策略,为用户提供沉浸式的绘画体验。
-
-
-
-
-
-
-
-
-