基于光场EPI傅里叶变换的折射特征检测方法

    公开(公告)号:CN111583191A

    公开(公告)日:2020-08-25

    申请号:CN202010301723.0

    申请日:2020-04-16

    Abstract: 本发明基于光场EPI傅里叶变换的折射特征检测方法,具体按照以下步骤实施:步骤1、对光场原始图像进行解码得到四维参数化矩阵L[s,t,u,v];步骤2、利用四维参数化矩阵L[s,t,u,v]提取得到多个子孔径图像,并将所有的子孔径图像处理得到多个光场水平EPI图像;步骤3、将每个光场水平EPI图像划分为多等份图像,对每等份图像依次进行傅里叶变换、频谱中心化操作得到每等份图像对应的频域图像;步骤4、对每个光场水平EPI图像对应的所有等份频域图像依次进行检测分析确定频域图像上是否存在折射特征,进而确定光场原始图像上的折射区域。本发明基于光场EPI傅里叶变换的折射特征检测方法,能够精确检测出折射特征。

    基于深度学习的相似图像匹配方法

    公开(公告)号:CN111353538A

    公开(公告)日:2020-06-30

    申请号:CN202010131479.8

    申请日:2020-02-28

    Abstract: 本发明基于深度学习的相似图像匹配方法,具体按照以下步骤实施:通过该目标检测网络输出目标图像中各个物体对应的检测框、检测精度;步骤2、解析处理得到目标图像中任意两个物体的相对位置关系;步骤3、构建目标图像场景目标位置关系的图模型;步骤4、重复步骤1至3对候选数据集中的每一张样本图像建立场景目标位置关系的图模型,将样本图像场景目标位置关系的图模型与所有目标图像场景目标位置关系的图模型一一进行场景匹配,确定选择出与目标图像相似度最高的三张样本图像。本发明基于深度学习的相似图像匹配方法,能够有效解析目标图像中各个物体之间的空间位置关系,准确匹配目标图像的相似图像。

    一种基于EPI的光场图像超分辨的方法

    公开(公告)号:CN110599400A

    公开(公告)日:2019-12-20

    申请号:CN201910764022.8

    申请日:2019-08-19

    Abstract: 本发明公开了一种基于EPI的光场图像超分辨的方法,包括以下步骤:1、将光场原始图像和光场相机参数读入光场相机中;2、对原始图像进行解码得到四维的光场矩阵;3、提取四维光场矩阵的位置信息中坐标方向的像素点得到子孔径图像;4、将子孔径图像按行循环,依次提取每幅图像相同高度值的像素点,得到EPI图像;5、对步骤4得到的每幅EPI图像进行超分辨;6、对经过超分辨的EPI图像进行去模糊操作,再将每一个像素点还原到子孔径图像上。本发明通过子孔径图像提取EPI切片,通过对EPI切片进行超分辨更加有利于恢复原始图像的局部细节部分,从而在不提高硬件配置的前提下提高光场图像空间分辨率和角度分辨率。

    一种基于复杂网络结构可控性基因的识别方法

    公开(公告)号:CN110504004A

    公开(公告)日:2019-11-26

    申请号:CN201910576809.1

    申请日:2019-06-28

    Abstract: 本发明提供了一种基于复杂网络结构可控性基因识别方法,在于构建可控性节点分类框架,将基因分成控制角色差异的不同类型,通过统计显著性识别新的基因,基于可控性节点分类框架的基因识别方法考虑了网络中的全局信息,从多个控制层面实现了基因的分类,并且将该框架应用于组织特异的调控网络中,能够系统性地检测出具有显著生物意义的基因,为进一步的基因研究提供工具平台。

    基于生成对抗网络的光场轴向重聚焦图像超分辨方法

    公开(公告)号:CN110490968A

    公开(公告)日:2019-11-22

    申请号:CN201910650417.5

    申请日:2019-07-18

    Abstract: 本发明公开的基于生成对抗网络的光场轴向重聚焦图像超分辨方法,首先,从光场原始图像获得光场的重聚焦图像,并将其分为测试集数据和训练集数据;然后,使用tensorflow搭建生成对抗网络模型,通过训练集数据训练生成对抗网络模型,通过测试集数据验证模型;最后,使用训练好的生成对抗网络模型进行光场轴向重聚焦图像的超分辨。本发明公开的方法解决了现有方法不能对非整数倍的重聚焦图像进行重建的问题。通过生成对抗网络对光场重聚焦图像实现轴向超分辨,能够在较少的光场重聚焦图像下生成不同深度的光场重聚焦图像,使得光场重聚焦变得更为平滑。

    RGBD视频中基于局部刚性假设的场景流估计方法

    公开(公告)号:CN110473228A

    公开(公告)日:2019-11-19

    申请号:CN201910595092.5

    申请日:2019-07-03

    Abstract: 本发明公开的RGBD视频中基于局部刚性假设的场景流估计方法,首先,分别输入连续两帧RGB图像和深度图像,并计算连续两帧RGB图像之间的光流信息;其次,根据坐标转换配准输入的深度图像和RGB图像,修复深度图像中的洞和消除噪声点;然后,使用K-means算法对修复后的深度图像分层,将深度值接近的像素值分为同一层;然后使用局部刚性全局非刚性假设将每一层分成许多的块并计算每个块的运动信息;最后,根据光流信息和深度图像的分层信息得到最终的场景流信息。本发明公开的方法与传统的计算场景流的方法相比,具有较高的精度。

    基于墙的建筑物的建模方法

    公开(公告)号:CN103488827B

    公开(公告)日:2016-06-01

    申请号:CN201310416464.6

    申请日:2013-09-12

    Abstract: 本发明公开了一种基于墙的建筑物的建模方法,包括采集已知墙的信息,建立基于墙的梁系统的模型,根据上述的梁系统模型确定完成整体建筑物模型,根据上述的整体建筑物模型得出施工图纸用于指导施工,最终得到完整的建筑物实体。采用本发明建造的建筑物实体与采用传统的方法建造的建筑实体相比较,在施工过程中有效的避免了返工,工期大大缩短、可以有效的控制施工成本、并且其建筑物结构更加合理,每一根梁都具有均分载荷的功能,使得其结构更加稳定,具有额外的一些抗震能力。

    自适应字符切分及提取方法

    公开(公告)号:CN103488986A

    公开(公告)日:2014-01-01

    申请号:CN201310431987.8

    申请日:2013-09-18

    Abstract: 自适应字符切分及提取方法,首先,将读入的图像进行倾斜矫正;然后,从中定位出表格左上角的坐标(x0,y0),并以此设置矩形框裁剪出图像;最后,进行单个字符的切分及提取。本发明结合多种二值化图像的效果,采用基于垂直方向投影和轮廓特征组合下的两种策略多次自适应切分及提取,提高了从图像中定位出来的字符串的切分率,并保证了提取出的待识别数字正确率在98%~100%。

Patent Agency Ranking