一种基于时间-频域融合Transformer的脑电视觉分类方法

    公开(公告)号:CN114298216A

    公开(公告)日:2022-04-08

    申请号:CN202111618626.5

    申请日:2021-12-27

    Abstract: 本发明公开了一种基于时间‑频域融合Transformer的脑电视觉分类方法。本发明包括:1:构建时间预处理模块;用于对原始脑电信号进行滤波处理和时间信息提取,输出为时域特征;2:构建频域预处理模块;使用功率谱密度方法对原始脑电信号提取4个频段特征并进行特征拼接,输出为频域特征;S3:构建时间‑频域融合Transformer的特征融合模块,以时域特征与频域特征作为输入,输出时频融合特征;4:构建时间‑频域融合Transformer的分类模块,以时频融合特征作为输入,输出分类结果。本发明提高计算机通过脑电信号感知物体类别的稳定性和正确率,以实现更高精度的脑电信号分类效果,对人机交互领域的发展有重要的现实意义。

    基于遮挡区域迭代优化的光场深度自监督学习方法

    公开(公告)号:CN112288789A

    公开(公告)日:2021-01-29

    申请号:CN202011151995.3

    申请日:2020-10-26

    Abstract: 本发明公开了一种基于遮挡区域迭代优化的光场深度自监督学习方法。本发明步骤如下:S1:从光场图像中提取网络输入;S2:搭建自监督光场深度估计网络,网络输出为中心子光圈图像的视差图。S3:设计基于遮挡掩模的自监督学习损失函数,设定初始遮挡掩模为无遮挡情况。S4:优化基于遮挡掩模的自监督学习损失函数,训练自监督光场深度估计网络。S5:利用步骤S4中训练完成的自监督光场深度估计网络预测得到中心子光圈图像的视差图,计算中心子光圈图像的遮挡区域,更新遮挡掩模。S6:若更新前和更新后遮挡掩模的差异小于设定阈值,则退出迭代优化;否则返回步骤S4。本发明实现遮挡区域的迭代优化,同时优化光场深度估计结果。

    一种基于级联遮挡滤除滤波器的光场相机深度估计方法

    公开(公告)号:CN106340041B

    公开(公告)日:2018-12-25

    申请号:CN201610828210.9

    申请日:2016-09-18

    Abstract: 本发明公开了一种基于级联遮挡滤除滤波器的光场相机深度估计方法。本发明根据遮挡信息在光线级、像素级和图像级中的不同表现形式,通过从光线级到像素级再到图像级的三层级联遮挡滤除滤波,滤除或保持原始光场图像数据中可能的遮挡信息,减少光场相机深度估计中的歧义性判断,实现精确的深度估计。本发明的主要特点在于通过光线级遮挡滤除滤波器滤除可能被遮挡的光线,通过像素级遮挡滤除滤波器保持处于深度不连续边缘处像素的遮挡特性,通过图像级遮挡滤除滤波器提取像素间的图像级遮挡信息,从而在深度估计中排除具有歧义性的遮挡信息,提高估计精度。

    基于方向和尺度自适应卷积神经网络的光场深度估计方法

    公开(公告)号:CN108846473A

    公开(公告)日:2018-11-20

    申请号:CN201810317425.3

    申请日:2018-04-10

    Abstract: 本发明公开了一种基于方向和尺度自适应卷积神经网络的光场深度估计方法。本发明包括如下步骤:步骤1.准备光场数据集,制作训练集和测试集;步骤2.搭建方向和尺度自适应的卷积神经网络SOA-EPN;步骤3.使用训练集训练搭建好的SOA-EPN网络;步骤4.使用练好的SOA-EPN网络在测试集上进行测试;本发明借助于尺度和方向感知卷积神经网络来预测光场深度,不仅利用了多方向,而且很好的处理了遮挡等问题,得到准确的深度估计结果。

    一种基于三维全卷积神经网络的前列腺MRI分割方法

    公开(公告)号:CN107886510A

    公开(公告)日:2018-04-06

    申请号:CN201711204994.9

    申请日:2017-11-27

    Abstract: 本发明公开了一种基于三维全卷积神经网络的前列腺MRI分割方法。本发明利用一种三维全卷积神经网络学习前列腺MRI图像的特征,并对MRI图像进行逐体素的分类,最终获得MRI图像的分割图像。网络中使用到的三维卷积核能够有效地学习到三维图像的空间结构特征,并且全卷积结构的深度网络只需要一次前馈计算就能够得到最终的结果,相比于提取Patch后针对Patch单独运行卷积网络的结构,在速度上要大大提升,而且单个神经元的感受野更大更有利于对全局信息的特征学习,能够更好地进行分割任务。

    一种基于巴氏相似性的目标视觉感知方法

    公开(公告)号:CN103065316B

    公开(公告)日:2016-03-30

    申请号:CN201210582688.X

    申请日:2012-12-28

    Abstract: 本发明公开了一种基于巴氏相似性的目标视觉感知方法,包括以下步骤:(1)根据输入的视频图像序列,通过手动方式对场景的感知区域进行设置,并在视频图像序列中对感知区域进行标记;(2)建立感知区域当前直方图模型,建立感知区域自适应背景直方图模型;(3)利用巴氏相似性计算公式,结合感知区域当前直方图模型和感知区域自适应背景直方图模型,计算感知区域直方图模型巴氏相似性系数;(4)用算得的巴氏相似性系数进行巴氏相似性目标视觉感知;(5)对感知区域进行自适应背景更新。本发明方法不仅适用于视频监控场合,也适用于仅有静态图像传送的监控场合,更加符合人类对目标的视觉感知方式,有着广泛的应用前景。

    基于韦伯定理和中央-周围假设的视觉显著性检测方法

    公开(公告)号:CN102103750B

    公开(公告)日:2012-09-19

    申请号:CN201110002235.0

    申请日:2011-01-07

    Abstract: 本发明涉及一种基于韦伯定理和中央-周围假设的视觉显著性检测方法。目前的方法分辨率低,提取的物体轮廓不全,计算复杂度高。本发明方法首先采用彩色变换方法,提取原始图像在CIELAB空间彩色分量图;其次根据韦伯定理计算l彩色分量图、a彩色分量图和b彩色分量图中每个像素点的水平梯度差励值和垂直梯度差励值;然后根据水平梯度差励值和垂直梯度差励值计算任意梯度方向的差励值,并统计差励直方图;最后每个像素点建立其局部显著性激励矢量,得到局部显著性判决值和全局显著性激励值,根据前两者计算显著性判决值。本发明方法不仅可获得与输入图像相同分辨率的视觉显著图,并且在显著性区域具有更强的响应。

    基于双目视觉节点的动态三维多媒体传感网络自定位方法

    公开(公告)号:CN102510512A

    公开(公告)日:2012-06-20

    申请号:CN201110364395.X

    申请日:2011-11-17

    Abstract: 本发明涉及一种基于双目视觉节点的动态三维多媒体传感网络自定位方法。目前的方法通常都是基于单目视觉节点。本发明方法各节点独立提取基于SIFT特征描述符的三维点云;并根据两两节点间匹配信息,采用基于单位四元数的运动估计方法获得相对位姿;最后分布式定位策略实现所有节点的自定位。其最主要优势在于:在三维网络部署下,仅在两节点间即可完成其相对位姿估计,进而可有效避免不必要的“洪泛”风险和能量损失。该优势在大规模动态多媒体传感网络中尤为重要。

Patent Agency Ranking