-
公开(公告)号:CN118376345A
公开(公告)日:2024-07-23
申请号:CN202410806045.1
申请日:2024-06-21
Applicant: 安徽大学
IPC: G01L5/16 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于事件流数据的高速力测量和接触状态感知方法与装置,包括如下步骤:S1.柔性触觉装置的设计;S2.模型训练数据集的采集和卷积神经网络的训练;S3.使用事件相机对接触面进行观测获得事件流数据并对其进行裁切与过滤;S4.根据正事件数的变化趋势推断接触状态并缓存;S5.根据各个子区域内事件数的分布推断接触面积的大小并根据接触面积变化趋势纠正当前所处的接触状态;S6.根据当前接触状态判断是否需要更新接触区域力学信息。本发明解决了现有的柔性触觉传感器在对接触面的力学变化进行快速响应方面的不足和事件相机在观测处于静止状态的物体时无法输出有效数据进而无法判断接触情况的问题。
-
公开(公告)号:CN115854920B
公开(公告)日:2024-05-28
申请号:CN202211459943.1
申请日:2022-11-16
Applicant: 安徽大学
IPC: G01B11/25
Abstract: 本发明公开了一种彩色条纹三维测量中的串扰误差矫正方法,包括:步骤S1:搭建彩色条纹投影三维测量系统,包括计算机、投影仪和彩色相机;步骤S2:投影仪投射彩色条纹图案到被测物体表面;彩色相机捕获经被测物体表面扭曲的彩色条纹图案;步骤S3:通过步骤S2提取的条纹图像信息并结合三步相移法计算出受到颜色通道串扰影响的包裹相位φd(x,y);步骤S4:绘制出受到颜色通道串扰影响的包裹相位φd(x,y)在极坐标系下对应的弦分布图;步骤S5:通过平均弦分布图中的夹角来均衡化弦长分布;步骤S6:将均衡化后的弦分布图还原为矫正后的包裹相位φc(x,y);步骤S7:对矫正后的包裹相位φc(x,y)解包裹获得绝对相位Φ(x,y),然后进行物体表面的三维重建。
-
公开(公告)号:CN116878382B
公开(公告)日:2024-05-24
申请号:CN202311000563.6
申请日:2023-08-10
Applicant: 安徽大学
Abstract: 本发明公开了一种基于结构光的远距离高速形面测量方法,包括:步骤S1:搭建近距离DLP投影测量系统;步骤S2:使用标定好的近距离DLP投影测量系统获取物体的初始表面绝对相位与初始高度信息;步骤S3:使用平面靶和导轨对近距离DLP投影测量系统进行水平和垂直方向标定;步骤S4:搭建远距离机械投影测量系统,结合步骤S2的初始高度信息拟合出高度‑相位映射关系,辅助进行远距离机械投影测量系统的标定;步骤S5:利用步骤S1中生成的相移式结构光,DLP产生的多频相位,获取绝对相位信息;结合系统联合标定公式获取机械投影光栅的初始相位;步骤S6:使用标定好的远距离机械投影测量系统捕捉物体动态过程,通过FTP技术及高度‑相位映射获取被测物体的形变量。
-
公开(公告)号:CN116994075A
公开(公告)日:2023-11-03
申请号:CN202311255809.4
申请日:2023-09-27
IPC: G06V10/764 , G06N3/0464 , G06N3/08 , G06T7/10 , G06T7/277 , G06T7/292 , G06V10/10 , G06V10/26 , G06V10/82 , G06V40/10
Abstract: 本发明公开了一种基于复眼事件成像的小目标快速预警与识别方法,包括步骤一:使用复眼事件相机进行大视场范围观测;步骤二:记录视场中出现的所有目标的事件成像,预识别与标记;步骤三:持续跟踪目标,预测目标轨迹;步骤四:保存中途丢失的目标的标记、事件成像及其轨迹;步骤五:根据分类结果使用对应的神经网络对目标进行精确识别;步骤六:记录并分析目标识别结果、事件成像变化过程以及目标轨迹。本发明通过将多孔径成像系统大视场高分辨率的特性和事件相机低数据带宽高速动态观测的特性与深度学习相结合,解决了目标检测中单一事件相机视场小、分辨率低、难以精确识别目标以及传统多孔径成像系统数据带宽过大无法实时处理的问题。
-
公开(公告)号:CN116189461B
公开(公告)日:2023-07-21
申请号:CN202310474045.1
申请日:2023-04-28
Applicant: 安徽大学
Abstract: 本发明涉及交通管控领域,尤其涉及考虑碳排放的交叉口交通管控方法、系统和存储介质。本发明中的考虑碳排放的交叉口交通管控方法首先结合等效系数计算当前交叉口各行驶方向上的流量比;然后计算信号周期和信号周期内各相位中的有效绿灯时间。该方法可通过调整等效系数基于交叉口实际情况进行交通管控,有利于提高高能耗车辆更多的行驶方向上的车辆通行效率,降低车辆损失时间,且该管控方法可用于制定任何交叉口的信号灯控制方案,实现符合交叉口最低碳排放的信号灯控制方案的制定。
-
公开(公告)号:CN119402604A
公开(公告)日:2025-02-07
申请号:CN202510016157.1
申请日:2025-01-06
Applicant: 安徽大学
IPC: H04N5/06
Abstract: 本发明公开了一种利用时间编码进行分布式事件相机同步方法,属于图像采集领域,旨在通过精确的时间编码来实现分布式事件相机采集系统的时间同步。该系统由北斗/GPS授时设备、事件相机以及FPGA板组成,通过北斗/GPS授时设备获取精确的时间信息,作为时间基准,并将这些时间信息进行二进制编码划分;再利用FPGA板对编码后的时间信息进行处理,生成九位含有时间信息的脉冲序列,将这些信号按照既定顺序触发输入至事件相机;事件相机记录下触发时的时间戳信息,通过分析提取其中的脉冲序列,实现事件相机的时间戳对齐,从而完成多个分布式事件相机之间的时间同步。
-
公开(公告)号:CN118842919B
公开(公告)日:2024-11-22
申请号:CN202411323294.1
申请日:2024-09-23
IPC: H04N19/587 , H04N23/95 , H04N19/172 , G06N3/0464
Abstract: 本发明公开了一种利用事件相机数据进行动态帧插补方法,该方法包含以下步骤:S1.使用FPGA同步事件相机和RGB相机数据;S2.对采集得到的事件流数据执行动态积分,以生成连续的事件积分图像序列;S3.对连续的事件帧预测出光流,利用估计的光流对关键帧进行扭曲变形,生成新帧;S4.使用合成方法直接从边界关键帧和事件序列中融合信息,预测新帧;S5.将合成插值结果、变形插值结果及光流估计结果输入至注意力网络,以优化并确定最终新帧,随后将新帧与原始帧融合,形成平滑连续的视频流;本发明有效解决了传统插帧技术在处理复杂动态场景时帧数固定和计算资源浪费的问题。
-
公开(公告)号:CN118828149A
公开(公告)日:2024-10-22
申请号:CN202411295499.3
申请日:2024-09-18
Abstract: 本发明公开了基于脉冲和事件融合数据的高速目标检测方法、系统及装置,该装置包括安装座和外罩,所述外罩内设置有用于特征点图像捕获用的事件相机和脉冲相机,所述事件相机和脉冲相机中部设置有主板箱,主板箱固定连接在外罩内,主板箱的两侧均设置有用于对事件相机和脉冲相机相对位置确定的控制组件。本发明能够根据具体的使用场景对事件相机和脉冲相机位置进行调整,事件相机和脉冲相机之间的安装位置关系,且因为两种相机在设计、功能和应用场景上存在差异,导致它们的安装位置也会有所不同,根据实际的需求对事件相机和脉冲相机位置调节,通过刻度指向标和刻度线的配合能够直观看出事件相机和脉冲相机位置关系。
-
公开(公告)号:CN118376345B
公开(公告)日:2024-08-20
申请号:CN202410806045.1
申请日:2024-06-21
Applicant: 安徽大学
IPC: G01L5/16 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于事件流数据的高速力测量和接触状态感知方法与装置,包括如下步骤:S1.柔性触觉装置的设计;S2.模型训练数据集的采集和卷积神经网络的训练;S3.使用事件相机对接触面进行观测获得事件流数据并对其进行裁切与过滤;S4.根据正事件数的变化趋势推断接触状态并缓存;S5.根据各个子区域内事件数的分布推断接触面积的大小并根据接触面积变化趋势纠正当前所处的接触状态;S6.根据当前接触状态判断是否需要更新接触区域力学信息。本发明解决了现有的柔性触觉传感器在对接触面的力学变化进行快速响应方面的不足和事件相机在观测处于静止状态的物体时无法输出有效数据进而无法判断接触情况的问题。
-
公开(公告)号:CN116977449B
公开(公告)日:2024-03-15
申请号:CN202311241414.9
申请日:2023-09-25
IPC: G06T7/80
Abstract: 本发明公开了一种基于闪烁棋盘格的复眼事件相机主动标定方法,包括如下步骤:首先,利用LCD屏播放闪烁的棋盘格图案,构成一个特征点构造装置,然后将由事件相机组成的复眼装置固定于二维转台上,控制二维转台的转动,使得各个事件相机依次对准LCD屏,采集棋盘格图像信息,完成标定,同时根据转动的角度可建立不同事件相机坐标系之间的联系。本发明利用二维转台调整复眼事件相机位姿,采集不同角度的棋盘格事件信息,以达到简便,快速和低成本标定复眼事件相机的目的,且本发明使用高斯滤波的方法,减小了噪声影响,使得标定更加精确。
-
-
-
-
-
-
-
-
-