一种利用事件相机进行动态帧插补方法

    公开(公告)号:CN118842919A

    公开(公告)日:2024-10-25

    申请号:CN202411323294.1

    申请日:2024-09-23

    Abstract: 本发明公开了一种利用事件相机数据进行动态帧插补方法,该方法包含以下步骤:S1.使用FPGA同步事件相机和RGB相机数据;S2.对采集得到的事件流数据执行动态积分,以生成连续的事件积分图像序列;S3.对连续的事件帧预测出光流,利用估计的光流对关键帧进行扭曲变形,生成新帧;S4.使用合成方法直接从边界关键帧和事件序列中融合信息,预测新帧;S5.将合成插值结果、变形插值结果及光流估计结果输入至注意力网络,以优化并确定最终新帧,随后将新帧与原始帧融合,形成平滑连续的视频流;本发明有效解决了传统插帧技术在处理复杂动态场景时帧数固定和计算资源浪费的问题。

    一种基于闪烁LED的事件相机标定方法及装置

    公开(公告)号:CN118470133A

    公开(公告)日:2024-08-09

    申请号:CN202410670991.8

    申请日:2024-05-28

    Abstract: 本发明公开了一种基于闪烁LED的事件相机标定方法及装置,解决了现有的事件相机标定方法过于繁琐、标定效率较低,且有一定局限性,不具有普适性的问题,具体包括:步骤1、建立三维世界坐标系,在待标定事件相机视觉范围内搭建事件相机标定装置;步骤2、通过一维线性平移台沿x轴移动LED灯组,获取N张图像;步骤3、对二维图像去噪并将每个LED灯拟合为圆形,各个圆心为特征点,获取所有特征点的三维坐标;步骤4、前后移动或摆动一维线性平移台,获得M×N×S个特征点的三维坐标步骤5、通过M×N×S个特征点的三维坐标对待标定事件相机进行标定,得到待标定事件相机的初始参数,并计算其内外参数,从而完成待标定事件相机的标定。

    一种用于事件相机标定装置与方法

    公开(公告)号:CN117911540A

    公开(公告)日:2024-04-19

    申请号:CN202410307498.X

    申请日:2024-03-18

    Abstract: 本发明提供了应用于相机标定技术领域的一种用于事件相机标定装置与方法,包括事件相机、闪烁LED灯条、计算机、一维平移台、支撑架、旋转台、LED控制器及平移台控制器;闪烁LED灯条可通过平移台实现一维平移运动,一维平移台连接平移台控制器,LED控制器连接闪烁LED灯条,其中,闪烁LED灯条包含12个LED发光点,相邻LED发光点的间距为20mm,LED控制器、平移台控制器、旋转台、事件相机连接计算机;通过将相互适配的花键套a和花键轴a,可实现对旋转方向相互垂直的下轴架和上轴架的旋转驱动控制,有利于降低旋转台使用伺服电机的数量,从而有效降低旋转台的制造成本,有利于更加便捷精准的实现对事件相机的标定。

    一种复眼事件相机的设计方法及装置

    公开(公告)号:CN116990963A

    公开(公告)日:2023-11-03

    申请号:CN202311265340.2

    申请日:2023-09-28

    Abstract: 本发明公开了一种复眼事件相机的设计方法及装置,该方法包括以下步骤:子孔径分割大视场步骤,将一个半球形视场分割为多个子孔径对应的子视场;子视场映射到事件相机视场步骤,将子视场逐一对应到每个事件相机;球面事件相机布局平面化步骤。本发明拥有全方位的视觉感知能力,利用事件相机低数据带宽高速动态观测的特性,实现低数据带宽事件流数据的获取,利用多孔径成像系统大视场高分辨的特性,实现大视场高分辨率动态观测,解决了单一事件相机视场过小和传统多孔径成像系统数据带宽过大无法实时处理的问题。同时,本发明使用平面复眼结构代替传统的球面复眼结构,缩小结构体积的同时减小了复眼事件相机的制造难度。

    一种利用事件相机进行动态帧插补方法

    公开(公告)号:CN118842919B

    公开(公告)日:2024-11-22

    申请号:CN202411323294.1

    申请日:2024-09-23

    Abstract: 本发明公开了一种利用事件相机数据进行动态帧插补方法,该方法包含以下步骤:S1.使用FPGA同步事件相机和RGB相机数据;S2.对采集得到的事件流数据执行动态积分,以生成连续的事件积分图像序列;S3.对连续的事件帧预测出光流,利用估计的光流对关键帧进行扭曲变形,生成新帧;S4.使用合成方法直接从边界关键帧和事件序列中融合信息,预测新帧;S5.将合成插值结果、变形插值结果及光流估计结果输入至注意力网络,以优化并确定最终新帧,随后将新帧与原始帧融合,形成平滑连续的视频流;本发明有效解决了传统插帧技术在处理复杂动态场景时帧数固定和计算资源浪费的问题。

    一种基于事件相机和高速相机协同处理的目标检测方法

    公开(公告)号:CN117994339A

    公开(公告)日:2024-05-07

    申请号:CN202410136865.4

    申请日:2024-01-31

    Abstract: 本发明提供了一种基于事件相机和高速相机协同处理的目标检测方法,解决了现有空间配准方法步骤多,普适性低,或者目标检测方法的检测速度慢、精度低的问题。该方法包括:步骤1、对事件相机和高速相机进行时间同步;步骤2、对事件相机和高速相机进行位置标定,得到事件相机、高速相机的内外参数,对两台相机进行空间配准;步骤3、事件相机采集目标运动的事件流,高速相机采集目标运动的图像序列;步骤4、获取真实目标事件(t,x,y);步骤5、在图像序列中找到对应时间的目标图像;根据两台相机的外参数,以及(x,y),在目标图像中找到对应的(x1,y1);对目标图像对应的区域进行目标检测,获得目标精准位置。

    基于事件相机和高速相机的高速目标位置预测方法

    公开(公告)号:CN117994338A

    公开(公告)日:2024-05-07

    申请号:CN202410136864.X

    申请日:2024-01-31

    Abstract: 本发明提供了基于事件相机和高速相机的高速目标位置预测方法,解决了无法实时计算高速运动目标的速度和位置,从而无法实时预测目标位置的问题。该方法步骤为:布置两个相机组并进行时间同步;标定相机组,得到各相机组中事件相机、高速相机的内参和外参;事件相机采集事件流,同时高速相机获取目标运动图像序列;粗定位目标,获取其在各事件相机中粗略的图像坐标和时间戳;在与各事件相机处于同一相机组的高速相机获取的运动图像序列中找对应时间戳的图像帧,精定位目标,获取其在各高速相机中精确的图像坐标;跟踪目标,获取其在各高速相机中随时间变化的精确图像坐标;计算目标在不同时刻的关键参数,完成对高速目标位置的预测。

Patent Agency Ranking