基于逆渲染和光照可控图像生成的图片重照明方法

    公开(公告)号:CN117496041A

    公开(公告)日:2024-02-02

    申请号:CN202311434219.8

    申请日:2023-10-31

    Abstract: 本发明公开了一种基于逆渲染和光照可控图像生成的图片重照明方法,通过基于逆渲染和图像可控光照几何感知网络,通过输入一张图片,可以使用逆渲染方法提取出光照方向、色温等光照参数信息以及几何纹理信息;将另外一张图片输入到可控光照几何感知网络,使用上一张图片的光照方向、色温等参数可以调整该图片的光照参数,并重新渲染,进行重照明,便可得到一个新图片;该方法简单高效,避免了繁琐的人工编辑图像过程,大幅降低了人工成本,提高了图片美化的效率。

    一种基于深度学习的语义部件姿态估计方法

    公开(公告)号:CN117218343A

    公开(公告)日:2023-12-12

    申请号:CN202311164549.X

    申请日:2023-09-11

    Inventor: 杨路 欧阳东

    Abstract: 本发明公开一种基于深度学习的语义部件姿态估计方法,提出了SURF‑FPS算法与CPFNet模型,SURF‑FPS算法为联合SURF算法的物体模型三维关键点采样方法,用于数据预处理阶段,能够综合考虑物体的几何特征与潜在的表面纹理特征,使选取的物体关键点更加具有稳定的特征代表性;CPFNet模型可以充分利用样本的RGB图像和深度信息,在各编码层与解码层之间进行图像信息与点云信息之间的高维度特征融合;点云特征编码模块通过将点云的空间信息与对应的高维度特征信息合并处理,该模块能够较完整地提取目标物体的上下文部件特征,并且在后续的注意力模块中进行全局信息的融合,从而利用特征更加明显的关键部件来综合提升姿态估计的效果。

    一种基于深度学习的近距离屏幕监控方法

    公开(公告)号:CN114241407B

    公开(公告)日:2023-05-23

    申请号:CN202111504793.7

    申请日:2021-12-10

    Abstract: 本发明公开了一种基于深度学习的近距离屏幕监控方法,首先通过摄像头获取被监控屏幕的图像,并对其进行预处理;采用自适应的方法对从预处理后的屏幕图像进行近距离校正;并采用无监督的方法使用连接的三个W‑GAN网络从校正后的屏幕图像中分割出目标区域;采用DBNet的方法从分割出的目标区域中提取出所需数据文本的边框,获得相应的文本图像;后对文本图像进行识别,获得屏幕数据。本发明引用自适应的空间变化网络对近距离监测的文本进行校正,简单高效地实现了对医疗设备屏幕的监控,降低了医疗工作者设备监视的时间成本;使用三个W‑GAN网络采用无监督的方式完成目标区域的分割,有效的避免了图像中的背景对识别结果的干扰,降低了人工标记的时间成本。

    一种基于摄像头的心肺复苏按压动作评估方法与系统

    公开(公告)号:CN115227234A

    公开(公告)日:2022-10-25

    申请号:CN202210802369.9

    申请日:2022-07-07

    Abstract: 本发明公开了一种基于摄像头的心肺复苏按压动作评估方法与系统,包括以下步骤:设计心肺复苏按压动作评估体系;设计基于关键点的心肺复苏按压动作序列识别算法;设计基于按压动作的心肺复苏评估算法;以及构建基于摄像头的心肺复苏按压动作评估系统。本发明解决了目前多人姿态估计算法在心肺复苏场景上存在的重复识别问题,成功将心肺复苏实施者和被抢救者的骨骼点分离,排除了被抢救者的关键点干扰,提高了关键点的精度;在安卓系统上开发心肺复苏按压动作评估系统,有利于病人的第一目击者在黄金四分钟内对病人实施心肺复苏,提高心肺复苏的成功率。

    一种基于深度学习的近距离屏幕监控方法

    公开(公告)号:CN114241407A

    公开(公告)日:2022-03-25

    申请号:CN202111504793.7

    申请日:2021-12-10

    Abstract: 本发明公开了一种基于深度学习的近距离屏幕监控方法,首先通过摄像头获取被监控屏幕的图像,并对其进行预处理;采用自适应的方法对从预处理后的屏幕图像进行近距离校正;并采用无监督的方法使用连接的三个W‑GAN网络从校正后的屏幕图像中分割出目标区域;采用DBNet的方法从分割出的目标区域中提取出所需数据文本的边框,获得相应的文本图像;后对文本图像进行识别,获得屏幕数据。本发明引用自适应的空间变化网络对近距离监测的文本进行校正,简单高效地实现了对医疗设备屏幕的监控,降低了医疗工作者设备监视的时间成本;使用三个W‑GAN网络采用无监督的方式完成目标区域的分割,有效的避免了图像中的背景对识别结果的干扰,降低了人工标记的时间成本。

    一种基于部件模型表达的工件位姿估计方法

    公开(公告)号:CN110097599B

    公开(公告)日:2021-08-13

    申请号:CN201910320011.0

    申请日:2019-04-19

    Inventor: 杨路 涂文哲 康甲

    Abstract: 本发明公开了一种基于部件模型表达的工件位姿估计方法,包括以下步骤:对待检测数据进行数据增强,获取处理后的图像;通过卷积神经网络对图像进行特征提取,获得3种尺度的特征图;将每个特征图通过部件模型表达网络结构,获得整体和部件的相应得分与模型响应图;将所有模型响应图经过参数优化得到综合响应图以及关键点;通过EPnP算法计算空间中n个3D点与图像中2D点进行匹配,进而得到相机对应位姿。本发明只需对工件整体进行信息标注,将工件的部件信息作为隐性特征,通过神经网络自动发现有效部件来进行部件标注,具有快速而高效的性能,能实时、精确地计算工件等弱纹理物体的6D位姿的优点。

    基于深度学习的单帧图像自由视点三维模型重建方法

    公开(公告)号:CN110223382B

    公开(公告)日:2021-02-12

    申请号:CN201910509328.9

    申请日:2019-06-13

    Abstract: 本发明公开了一种基于深度学习的单帧图像自由视点三维模型重建方法,包括以下步骤:训练样本生成;利用特征提取网络获取图片高层语义;通过解耦网络将图像语义解耦转化为输出视点无关三维模型点云与相机视点参数;视点无关三维模型重建;相机视点估计与自由视点生成;自由视点三维模型生成;以及深度学习模型训练。本发明方法能够简单高效地从单帧图像中重建自由视点的三维模型,提高了模型的泛化性,拓宽了使用范围。

    基于多标签分类的肺癌前沿趋势预测方法

    公开(公告)号:CN111651605A

    公开(公告)日:2020-09-11

    申请号:CN202010502501.5

    申请日:2020-06-04

    Inventor: 杨路 王小也

    Abstract: 本发明公开了一种基于多标签分类的肺癌前沿趋势预测方法,包括:收集肺癌研究领域的论文的序列号、标题、摘要以及发表日期,组成数据集;制定类别集,对应肺癌研究领域论文的主题;根据类别集,对收集到的摘要文本进行标注;对数据集中的文本进行预处理;根据论文的发表日期,将数据集分为训练集和验证集;将训练样本输入到基于Bert的多标签分类网络,设定损失函数loss,loss值反向传播,更新权重参数,不断迭代训练网络,直至loss值不再下降;利用训练的分类网络对验证集的数据进行分类,得到分类结果。本发明改进了传统多标签算法忽视标签相关性的问题;同时,将人工智能技术与医疗相结合,提供了医疗领域趋势预测的新思路。

    面向虚拟图像的机器人导航方法

    公开(公告)号:CN106123865B

    公开(公告)日:2019-01-29

    申请号:CN201610457116.7

    申请日:2016-06-22

    Abstract: 本发明公开了一种面向虚拟图像的机器人导航方法,包括:计算第一图像和第二图像之间的第一双向流场;利用第一双向流场生成第一虚拟视角图像和第二虚拟视角图像;计算第一虚拟视角图像和第二虚拟视角图像之间的第二双向流场,从而计算第一虚拟视角图像和第二虚拟视角图像的景深信息;根据景深信息分别对第一虚拟视角图像和第二虚拟视角图像进行图像特写,将得到的第一虚拟特写图像和第二虚拟特写图像融合得到虚拟图像;获取机器人四周环境的全景图像,将虚拟图像与全景图像进行匹配,进行方位角定位;根据图像特征点比值与距离之间的对应关系拟合出机器人的距离计算函数,输出机器人的运动距离。本发明存储数据比较小、消耗内存少、计算速度快。

Patent Agency Ranking