-
公开(公告)号:CN116166029A
公开(公告)日:2023-05-26
申请号:CN202310215192.7
申请日:2023-03-07
Applicant: 西安交通大学
IPC: G05D1/02
Abstract: 本发明公开了一种兼容局部避障功能的多AGV导航方法及系统,根据AGV小车发送的自身定位信息获取AGV小车的实时位置,根据调度任务对执行任务的AGV小车规划一条全局路径;将全局路径进行逐点发送,并基于定位信息将路径点转换成车体坐标系下的局部目标点,用于控制AGV小车运行;实时融合环境传感器和单体AGV小车上的单线激光雷达生成的占据栅格地图,得到全局动态栅格地图;在控制AGV小车运行过程中,基于全局动态栅格地图决策AGV小车正常运行,以及当前方有障碍物时进行局部避障操作,实现兼容局部避障功能的多AGV导航。本发明实现了多AGV小车的导航控制,并兼容局部避障功能,能够更加高效地完成AGV小车的任务,提高生产效率和安全性,降低运行成本。
-
公开(公告)号:CN116012430A
公开(公告)日:2023-04-25
申请号:CN202211064275.2
申请日:2022-08-31
Applicant: 西安交通大学
Abstract: 本发明公开了一种弱对齐RGB‑D图像引导的深度图补全方法及系统,对弱对齐RGB‑D图像进行不一致像素点检测,使用神经网络技术将弱对齐RGB‑D图像划分为平坦区域和深度结构区域,选取表面法线特征约束平坦区域的深度值平滑度;选取高斯权重特征约束深度结构区域结构信息的准确度,采用核函数调整高斯权重大小;结合马尔科夫随机场优化模型,定义深度补全为全局优化模型,使用数据约束项、法线约束项和高斯权重约束项构建全局优化模型的成本函数,通过迭代求解输出高质量的补全深度图。本发明不仅能够在弱对齐RGB‑D图像的引导下对数据严重缺失的原始深度图进行补全,并能够保证补全深度图的结构准确度和平滑度。
-
公开(公告)号:CN111325693B
公开(公告)日:2022-07-12
申请号:CN202010113813.7
申请日:2020-02-24
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于单视点RGB‑D图像的大尺度全景视点合成方法,首先对输入的单帧彩色图和对应的深度图分别进行3D‑Warping,得到带有空洞的虚拟视点图像和掩膜图像。接下来将带有空洞的虚拟视点图像及掩膜图像作为CNN神经网络的输入,网络模型的输出结果即为虚拟视点空洞填补后的图像,接下来将水平方向新生成的虚拟视点作为新的输入,通过3D‑Warping及CNN神经网络空洞填充得到空间中任意位置处的虚拟视点图像。本发明实现了从整体上提高虚拟视点的质量,对提高大视差虚拟视点合成具有重要的指导意义。
-
公开(公告)号:CN111275642B
公开(公告)日:2022-05-20
申请号:CN202010056934.2
申请日:2020-01-16
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于显著性前景内容的低光照图像增强方法,学习低光照图像中的显著性前景内容信息并与增强过程融合,将低光照图像输入低光照显著注意力深度网络模型SAM得到输出的显著图;向深度预测网络模型输入低光照图像并输出对应的深度图;将获得的深度图作为引导图对显著图进行引导滤波,得到显著前景图;对于输入的低光照图像,以显著前景图作为增强程度的权重,采用LIME增强算法对低光照图像进行不同程度的增强,最终得到基于显著性前景内容增强的结果图。本发明能够针对低光照图像中的显著性前景内容区域有效的增强,同时抑制背景和无关内容区域的过度增强并抑制噪声。
-
公开(公告)号:CN108805841B
公开(公告)日:2021-01-19
申请号:CN201810600927.7
申请日:2018-06-12
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于彩色图引导的深度图恢复及视点合成优化方法,首先对不一致区域进行探测,检测输入深度图的边沿,并将边沿进行膨胀处理,将膨胀后的边沿标记为潜在不一致区域,然后基于迭代重加权最小二乘算法构建权重,权重构建完成后进行整体求解并更新深度图,根据结果判断是否达到设定的迭代次数,如果达到则输出深度图结束计算,否则重新进行对不一致区域探测。本发明能够抑制强噪声,并且能够修复深度图和彩色图不一致区域,提高深度图和彩色图的一致性,恢复出正确的深度图边界,对提高合成视图的质量有重要的指导意义。同时对于一致区域的去噪和保边能力强,采用成熟的迭代加权最小二乘模型,对参数的适应性强,提高了模型的鲁棒性。
-
公开(公告)号:CN111325693A
公开(公告)日:2020-06-23
申请号:CN202010113813.7
申请日:2020-02-24
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于单视点RGB-D图像的大尺度全景视点合成方法,首先对输入的单帧彩色图和对应的深度图分别进行3D-Warping,得到带有空洞的虚拟视点图像和掩膜图像。接下来将带有空洞的虚拟视点图像及掩膜图像作为CNN神经网络的输入,网络模型的输出结果即为虚拟视点空洞填补后的图像,接下来将水平方向新生成的虚拟视点作为新的输入,通过3D-Warping及CNN神经网络空洞填充得到空间中任意位置处的虚拟视点图像。本发明实现了从整体上提高虚拟视点的质量,对提高大视差虚拟视点合成具有重要的指导意义。
-
公开(公告)号:CN119785342A
公开(公告)日:2025-04-08
申请号:CN202411941272.1
申请日:2024-12-26
Applicant: 西安交通大学
IPC: G06V20/64 , G06V10/764 , G06T15/20 , G06T7/80 , G06T7/73 , G06T5/50 , G06F17/11 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种用于单目3D目标检测的数据增强方法及系统,分别构建场景数据库和物体数据库;在场景数据库中随机采样场景,在场景的可达区域中随机采样位置,在物体数据库中随机采样物体,经碰撞,遮挡检测后插入随机采样位置,将物体和场景融合得到重组图像和深度图;基于深度图,将重组图像转换到3D空间,并对相机姿态进行随机扰动,生成不同视角下的训练图像;物体、场景与相机姿态的随机重组合成不断生成的新图像,作为神经网络的训练数据,提升单目3D目标检测模型的性能;本发明能够高效利用已有数据资源,显著提升模型性能;有利于基于相机的场景感知算法在自动驾驶工业界的应用,有利于相关产业的快速落地和发展。
-
公开(公告)号:CN118730079A
公开(公告)日:2024-10-01
申请号:CN202410738939.1
申请日:2024-06-07
Applicant: 西安交通大学
Abstract: 本发明公开了一种轻量化的多AMR协同感知方法及系统,对多个环境中待检测物体的感知信息进行时间同步和过滤,基于待检测物体的历史信息和运动信息对缺失帧的信息进行预测和补偿,得到检测结果;通过计算IoU对得到的检测结果进行匹配,将多个AMR系统对同一个目标的多个单机感知结果加入匹配集合;计算匹配集合中的评估分数和可见度指标;并以此维护在一段时间中每个AMR系统检测结果的可信度,同时对每个AMR系统在一段时间中计算该AMR系统的可信度并更新,通过指标融合对匹配集合进行评估;将感知结果轻量级的mqtt通信协议发送到云端服务器,云端服务器对mqtt消息包解析并融合,实现多AMR协同感知。提高了整个系统的感知能力和任务执行效率。
-
公开(公告)号:CN113269689B
公开(公告)日:2023-08-29
申请号:CN202110574430.4
申请日:2021-05-25
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于法向量和高斯权重约束的深度图像补全方法及系统,输入深度图像对应的彩色图像,通过结构预测网络将深度图像划分为平滑区域和结构区域;对平滑区域使用法向量预测网络输出法向量特征并构建法向量约束项;对结构区域使用高斯核在对应彩色图像中提取高斯结构权重,构成高斯约束项;结合法向量约束项和高斯约束项构建全局优化目标方程并加入缺失深度图像,构建数据约束项作为全局优化目标方程的输入数据;迭代执行全局优化目标方程,直到低于设定的提升率或达到最大迭代次数,输出深度图像补全结果。本发明不仅能够对内容严重缺失的深度图像进行数据补全,并且能够保证补全结果中结构的准确度和深度值的平滑度。
-
公开(公告)号:CN116203576A
公开(公告)日:2023-06-02
申请号:CN202310214663.2
申请日:2023-03-07
Applicant: 西安交通大学
IPC: G01S17/42 , G01S17/86 , G01S17/931 , G01S7/497
Abstract: 本发明公开了一种基于环境感知的3D目标检测方法及系统,构建基于激光SLAM的静态全局地图,并与得到的点云数据进行配准,确定AGV小车在静态全局地图中的位置信息;将配准好的3D点云信息投影到2D像素空间,保存2D像素坐标和3D点云之间的映射关系,得到相机和激光雷达的融合数据;获取障碍物的类别和2D检测框,并反向搜索融合数据,筛选出包含在2D检测框中的点云信息;建立不同障碍物的仿真模型并转为对应的模板点云,再将模板点云位姿变换后替代真实点云并扩充;将得到的静态全局地图中的目标点云作为单机感知结果上传云端进行感知融合,实现基于环境感知的3D目标检测。本发明不需要真实的3D标签,而是依赖于容易获取的2D目标检测结果进行训练。
-
-
-
-
-
-
-
-
-