基于伪激光雷达的端到端的场景流、位姿联合学习方法

    公开(公告)号:CN113284173A

    公开(公告)日:2021-08-20

    申请号:CN202110421794.9

    申请日:2021-04-20

    Abstract: 本发明提供了一种基于伪激光雷达的端到端的场景流、位姿联合学习方法,其过程为,首先利用深度网络获得连续两帧单目图像的深度图,并将深度图生成两帧图像对应的伪点云,再将伪点云和激光雷达点云分别生成L层金字塔,在对伪点云和激光雷达点云进行逐层融合之后输入场景流‑位姿网络,实现场景流和位姿的联合估计。本发明采用了深度学习方法,端到端地进行位姿及场景流学习,使用了伪点云和激光雷达点云分层特征提取再融合的方法,并利用分割掩膜实现动态场景流和位姿的联合学习。本发明对伪点云和激光雷达点云进行融合,提高了网络估计的准确性,有利于实际应用。

    一种瓦斯气团生命周期预测及基于其的瓦斯浓度预测方法

    公开(公告)号:CN110598244B

    公开(公告)日:2021-03-12

    申请号:CN201910682246.4

    申请日:2019-07-26

    Abstract: 一种瓦斯气团生命周期预测及基于其的瓦斯浓度预测方法,步骤如下:1)根据瓦斯气团在巷道中的运移规律,及其运移过程中瓦斯浓度衰减率的变化,将瓦斯气团生命周期分为孕育、稳态漂移、扩散消逝;2)在巷道内采集一组瓦斯浓度数据;3)建立GM(1,1)预测模型并编译好MATLAB程序,在MATLAB程序中输入瓦斯浓度数据及后面需要预测瓦斯浓度值的点的个数;4)运行程序得到预测的瓦斯浓度值,计算出相应的瓦斯浓度衰减率;5)根据瓦斯浓度衰减率变化情况对应得到瓦斯气团生命周期所处阶段;6)判断该高浓度瓦斯气团能否安全扩散或排出巷道,若不能,则提前采取相应措施预防事故的发生。本发明能够有效地预防井下灾害的发生。

    一种瓦斯气团生命周期预测及基于其的瓦斯浓度预测方法

    公开(公告)号:CN110598244A

    公开(公告)日:2019-12-20

    申请号:CN201910682246.4

    申请日:2019-07-26

    Abstract: 一种瓦斯气团生命周期预测及基于其的瓦斯浓度预测方法,步骤如下:1)根据瓦斯气团在巷道中的运移规律,及其运移过程中瓦斯浓度衰减率的变化,将瓦斯气团生命周期分为孕育、稳态漂移、扩散消逝;2)在巷道内采集一组瓦斯浓度数据;3)建立GM(1,1)预测模型并编译好MATLAB程序,在MATLAB程序中输入瓦斯浓度数据及后面需要预测瓦斯浓度值的点的个数;4)运行程序得到预测的瓦斯浓度值,计算出相应的瓦斯浓度衰减率;5)根据瓦斯浓度衰减率变化情况对应得到瓦斯气团生命周期所处阶段;6)判断该高浓度瓦斯气团能否安全扩散或排出巷道,若不能,则提前采取相应措施预防事故的发生。本发明能够有效地预防井下灾害的发生。

    基于重要性凝视表征和障碍高斯约束的机器人导航方法

    公开(公告)号:CN119414404B

    公开(公告)日:2025-04-22

    申请号:CN202411533746.9

    申请日:2024-10-31

    Inventor: 缪燕子 翟煜 杨硕

    Abstract: 一种基于重要性凝视表征和障碍高斯约束的机器人导航方法,采集机器人原始点云数据信息,得到当前时刻下的点云数据Ot,机器人采集T时刻并保留T时刻内的历史点云数据序列O;将获得的点云数据序列O输入至重要性凝视表征模块,并表征历史深度图序列Or,将Or输入强化学习的决策网络δ,输出当前时刻导航动作at;将O输入高斯障碍约束模块,通过预定义的安全集合h(O)的值区间来判断当前状态的安全性;本发明能够解决端到端网络的安全性问题,最终实现移动机器人在陌生动态场景下高效、安全的自主导航。

    多角度智能监控场景下多模态融合换衣行人重识别方法

    公开(公告)号:CN119851315A

    公开(公告)日:2025-04-18

    申请号:CN202510058930.0

    申请日:2025-01-15

    Abstract: 多角度智能监控场景下多模态融合换衣行人重识别方法,通过提取原始行人图像的骨骼特征和全局图像特征,在不引入额外的人脸模型的情况下,使用骨骼特征对图像头部特征进行强化,从而得到骨骼头部特征#imgabs0#和全局图像特征Fa之间的mask,然后将mask与全局图像特征相乘以生成加权特征,实现对全局图像特征Fa的加权平均,使得全局图像特征Fa在保持图像特征的同时能够更加关注头部区域,最终再将加权特征和全局图像特征Fa融合,得到骨骼头部引导的增强全局图像特征#imgabs1#对增强全局图像特征#imgabs2#和对骨骼特征Fk经过自注意力编码后的特征fs做对齐重建,有效的提取了外观和身体结构信息,本发明能够提取出每个行人和其所穿衣服无关的特征,然后快匹配出要搜索的行人目标对象。

    一种基于实时场景解析的矿井辅助运输车辆安全导航方法

    公开(公告)号:CN118548896B

    公开(公告)日:2024-11-08

    申请号:CN202410743272.4

    申请日:2024-06-11

    Abstract: 一种基于实时场景解析的矿井辅助运输车辆安全导航方法,首先,本发明设计图像和点云分支的特征提取模块,通过引入CBAM方法来重点提取感知信息中的关键特征;其次,针对图像和点云信息间由于模态差异导致的特征不匹配问题,设计图像特征转换模块,实现特征空间的统一与特征融合,增强对矿井环境的全局感知;再者,针对矿井巷道内GPS定位信息缺失的挑战,通过部署UWB定位模块于车辆控制的关键区域,并构建巷道的整体拓扑地图,实现了对车辆导航路径的精确规划;最后,针对巷道工况的安全稳定需求,设计了一个具有多分支的连续控制模块,通过对应的导航指令进行多步预测,并通过底层控制检测来确保井下特种辅助运输车辆执行控制的安全性。

    一种基于三维隐式表示渲染下的在线攻击与鲁棒导航方法

    公开(公告)号:CN117804465B

    公开(公告)日:2024-09-20

    申请号:CN202410013040.3

    申请日:2024-01-04

    Abstract: 本发明涉及一种基于三维隐式表示渲染下的在线攻击与鲁棒导航方法,属于人工智能技术领域。采用动静态三维隐式表示模型,表示不同场景中的静态和动态对象,并在自动驾驶导航测试阶段,利用静态模型预测1s后的前视图像;利用卷积神经网络和循环神经网络的方法从含有攻击的图像中检测出干扰对象并恢复出干净图像,并输出攻击位置的相对坐标;通过深度强化学习的方法根据干净图像生成未来帧的导航轨迹点后通过PID控制算法根据导航轨迹点控制自车在模拟器中完成导航任务。本发明能够有效地模拟和防御自动驾驶场景中可能遇到的恶意干扰,提高自动驾驶系统的安全性和稳定性,同时也能够提高自动驾驶系统的导航性能和效率。

    一种基于三维隐式表示渲染下的在线攻击与鲁棒导航方法

    公开(公告)号:CN117804465A

    公开(公告)日:2024-04-02

    申请号:CN202410013040.3

    申请日:2024-01-04

    Abstract: 本发明涉及一种基于三维隐式表示渲染下的在线攻击与鲁棒导航方法,属于人工智能技术领域。采用动静态三维隐式表示模型,表示不同场景中的静态和动态对象,并在自动驾驶导航测试阶段,利用静态模型预测1s后的前视图像;利用卷积神经网络和循环神经网络的方法从含有攻击的图像中检测出干扰对象并恢复出干净图像,并输出攻击位置的相对坐标;通过深度强化学习的方法根据干净图像生成未来帧的导航轨迹点后通过PID控制算法根据导航轨迹点控制自车在模拟器中完成导航任务。本发明能够有效地模拟和防御自动驾驶场景中可能遇到的恶意干扰,提高自动驾驶系统的安全性和稳定性,同时也能够提高自动驾驶系统的导航性能和效率。

    一种基于关联性学习的高效导水裂隙带高度预测方法

    公开(公告)号:CN116595334B

    公开(公告)日:2024-01-19

    申请号:CN202310587216.1

    申请日:2023-05-23

    Abstract: 一种基于关联性学习的高效导水裂隙带高度预测方法,收集矿井资料得出影响煤矿区的主要影响因子序列并作为相关因素序列,将导水裂隙带高度作为原始数据序列,对原始数据序列及相关因素序列累加处理与灰色关联学习,得出各个影响因素对系统行为的关联度,从相关因素序列中任取2个序列并成一组,计算各组的皮尔森相关系数,对皮尔森相关系数取绝对值,与判决门限做对比,大于判决门限的进入优胜区,将优胜区的相关因素序列组,作为有效影响组,形成新的模拟预测序列;建立导水裂隙带高度预测模型,强化交互思想,得出本发明的导水裂隙带高度预测模型,有效提高模拟的稳定性,精准预测,同样适用于巨厚煤矿区的导水裂隙带高度,具有较强的应用性。

    一种基于伪激光雷达的端到端的场景流、位姿联合学习方法

    公开(公告)号:CN113284173B

    公开(公告)日:2023-12-19

    申请号:CN202110421794.9

    申请日:2021-04-20

    Abstract: 本发明提供了一种基于伪激光雷达的端到端的场景流、位姿联合学习方法,其过程为,首先利用深度网络获得连续两帧单目图像的深度图,并将深度图生成两帧图像对应的伪点云,再将伪点云和激光雷达点云分别生成L层金字塔,在对伪点云和激光雷达点云进行逐层融合之后输入场景流‑位姿网络,实现场景流和位姿的联合估计。本发明采用了深度学习方法,端到端地进行位姿及场景流学习,使用了伪点云和激光雷达点云分层特征提取再融合的方法,并利用分割掩膜实现动态场景流和位姿的联合学习。本发明对伪点云和激光雷达点云进行融合,提高了网络估计的准确性,有利于实际应用。

Patent Agency Ranking