智能投影仪系统及控制方法
    1.
    发明公开

    公开(公告)号:CN119676415A

    公开(公告)日:2025-03-21

    申请号:CN202311226092.0

    申请日:2023-09-21

    Applicant: 吉林大学

    Abstract: 本发明涉及投影仪技术领域,提供一种智能投影仪系统及控制方法,通过光学感知设备获取投影平面的图像和深度信息,由图像划分出颜色候选区域;将投影平面上严重偏离深度拟合平面的区域划分出来,该区域为需要避障的区域,在剩余区域内划分出深度候选区域,获得颜色候选区域与深度候选区域的共同可投影区域,通过调整投影光的角度和焦距实现有效投影。本发明可自动确定颜色候选区域与深度候选区域,并在两者的共同可投影区域内进行投影,保证投影仪在平面及空间非规则、颜色污迹等极端情况下,实现视觉效果下的平整、无色差投影,解决现有投影映射应用上的精度受限、场景单一且成本高昂等问题。

    基于颜色规避和深度矫正的智能车灯控制方法

    公开(公告)号:CN119676901A

    公开(公告)日:2025-03-21

    申请号:CN202311226060.0

    申请日:2023-09-21

    Applicant: 吉林大学

    Abstract: 本发明涉及智能车灯技技术领域,具体提供一种基于颜色规避和深度矫正的智能车灯控制方法,依据投影平面与全域颜色拟合平面的颜色偏差张量,确定出预投影图像上对应的异色区域,控制车灯对异色区域进行颜色规避投影,再依据投影平面与理想深度平面的深度差张量,确定出预投影图像上对应的深度变化区域,通过控制车灯改变投影尺寸实现深度矫正,保证最终投影出的图像不会受到实际路面的颜色干扰,也不会因路面坑洼导致驾驶员视野中的投影图像不连续、不清晰。本发明能够能依据采集信息对车灯进行调节光线亮度和局部投影的尺寸,使车灯投影不会受到路面颜色和路面高低不平的干扰。

    基于颜色矫正和深度矫正的智能投影仪控制方法

    公开(公告)号:CN119676417A

    公开(公告)日:2025-03-21

    申请号:CN202311226482.8

    申请日:2023-09-21

    Applicant: 吉林大学

    Abstract: 本发明涉及投影仪技术领域,具体提供一种基于颜色矫正和深度矫正的智能投影仪控制方法,通过光学感知设备采集投影平面的图像和深度信息,并计算其与理想平面间的颜色偏差张量和深度偏差张量,依据颜色偏差张量和深度偏差张量对预投影图像进行颜色矫正和深度矫正,使投影出的图像不会受到投影平面上的颜色和平整度的影响。本发明避免了投影平面的颜色干扰和平整度影响,保证投影仪在平面及空间非规则、颜色污迹等极端情况下,实现视觉效果下的平整、无色差投影,解决现有投影映射应用上的精度受限、场景单一且成本高昂等问题。

    一种基于中介相机坐标映射的联合标定方法及装置

    公开(公告)号:CN117805787A

    公开(公告)日:2024-04-02

    申请号:CN202311839965.5

    申请日:2023-12-28

    Applicant: 吉林大学

    Abstract: 本发明涉及光学雷达技术领域,具体提供一种基于中介相机坐标映射的联合标定方法及装置,包括:保持可见光相机、OPA激光雷达的位姿相对固定状态,控制OPA激光雷达向标定板上投射光束,获得n个空间点在激光雷达坐标系下的三维坐标,采集投点时刻的红外谱段图像,计算投点光斑中心的红外像素坐标,对于每次投点得到的红外谱段图像,建立标定板坐标系,并计算投点光斑中心在标定板坐标系中的归一化坐标,将归一化坐标映射至可见光图像中,获得投点光斑中心的可见光像素坐标,建立激光雷达坐标系下的三维坐标和可见光像素坐标的n组特征点对,计算可见光相机到OPA激光雷达的外参,可以显著减少标定过程中的数据量,降低标定误差。

    一种气体传感器阵列自适应后融合检测方法

    公开(公告)号:CN116340881A

    公开(公告)日:2023-06-27

    申请号:CN202310311007.4

    申请日:2023-03-28

    Applicant: 吉林大学

    Abstract: 本发明公开了一种气体传感器阵列自适应后融合检测方法,属于传感器智能检测技术领域,包括数据集准备及预处理;基于深度学习、补偿矫正算法和MASK算子的神经网络模型的构建与训练;采用上述训练好的神经网络模型检测出实际浓度值与阵列传感器件状态。本发明采用后融合算法,首先基于同类型的传感器进行标定补偿和数据融合,再将各类型传感器的融合结果进行最终融合。该融合算法按照不同数据之间相关性的强弱进行分阶段融合,有利于控制算法的复杂度、提升算法的可解释性和执行效率,并降低模型训练过程中对数据集规模的要求。该类算法的成功构建,有助于推进气体传感系统通用性算法框架的构建和自动化的算法优化。

    一种基于中介相机坐标转换的联合标定方法及装置

    公开(公告)号:CN117949931A

    公开(公告)日:2024-04-30

    申请号:CN202311839942.4

    申请日:2023-12-28

    Applicant: 吉林大学

    Abstract: 本发明涉及光学雷达技术领域,具体提供一种基于中介相机坐标转换的联合标定方法及装置,包括保持可见光相机、中介红外相机、OPA激光雷达的相对固定状态,对中介红外相机与可见光相机进行外参标定,获得可见光相机坐标系到红外相机坐标系的第一旋转矩阵与第一平移矩阵,对中介红外相机与OPA激光雷达进行外参标定,获得中介红外相机坐标系到OPA激光雷达坐标系的第二旋转矩阵与第二平移矩阵,根据第一旋转矩阵、第一平移矩阵,第二旋转矩阵以及第二平移矩阵确定可见光相机到OPA激光雷达的外参,完成联合标定,可以显著减少标定过程中需要采集的数据量,同时在获取特征点对时,精准地采集特征点位置处的三维点云数据,进一步地降低标定误差。

    一种基于中介目标的联合标定方法及装置

    公开(公告)号:CN117784100A

    公开(公告)日:2024-03-29

    申请号:CN202311839896.8

    申请日:2023-12-28

    Applicant: 吉林大学

    Abstract: 本发明涉及光学雷达技术领域,具体提供一种基于中介目标的联合标定方法及装置,包括:固定OPA激光雷达与相机的相对位姿,利用中介目标获取n组特征点对,其中,n≥3且获取的空间点对不共线,利用所述n组特征点对确定相机到OPA激光雷达的旋转矩阵和平移向量,完成联合标定,可以显著减少标定过程中需要采集的数据量,同时在获取特征点对时,精准地采集特征点位置处的三维点云数据,进一步地降低标定误差。

    基于环境自适应机器人视觉系统的目标检测方法及系统

    公开(公告)号:CN116486287A

    公开(公告)日:2023-07-25

    申请号:CN202310349405.5

    申请日:2023-04-04

    Applicant: 吉林大学

    Abstract: 本发明公开了基于环境自适应机器人视觉系统的目标检测方法及系统,属于目标检测技术领域,所述系统包括数据获取模块、图像处理模块、点云处理模块及数据融合模块;本发明利用相机和激光雷达具有互补性,可以相互弥补各自的局限性,将图像信息与点云信息进行了决策级融合;并采用训练好的图像自适应YOLOV5(IA‑YOLOV5)网络模型,先对RGB图像数据进行预处理,后利用YOLOV5网络进行目标检测,提高了低照度条件下目标检测精度。本发明在数据融合模块使用CLOCS算法进行决策级数据融合,两种模态的目标检测网络结构之间互不干扰该,可以独自训练和组合以应对各种环境和场景,具有更强的鲁棒性。

    一种暗光环境下相机与激光雷达的联合标定方法

    公开(公告)号:CN116485905A

    公开(公告)日:2023-07-25

    申请号:CN202310318830.8

    申请日:2023-03-29

    Applicant: 吉林大学

    Abstract: 本发明公开了一种暗光环境下相机与激光雷达的联合标定方法,属于传感器联合标定技术领域,包括:数据获取;图像增强;相机与激光雷达联合标定;利用张氏标定法计算相机的内参矩阵和畸变系数,完成相机标定;确定激光雷达点云在激光雷达世界坐标系到相机像素坐标系的矩阵变换关系,根据该矩阵变换关系使用多个点进行映射,完成相机与激光雷达的联合标定。本发明的联合标定方法可有效改善由于相机拍图片不清晰、噪声高,导致激光雷达相机外参标定不准确等问题,最终提高联合标定的精度和效率。

Patent Agency Ranking