-
公开(公告)号:CN112526988A
公开(公告)日:2021-03-19
申请号:CN202011192592.3
申请日:2020-10-30
Applicant: 西安交通大学
Abstract: 本发明公开了一种自主移动机器人及其路径导航和路径规划方法、系统,方法包括全局规划过程和局部规划过程;具体如下:获取定位信息和感知信息;根据所述定位信息和感知信息生成代价地图,所述代价地图用于A星路径搜索,得到初始导航路径;对所述初始导航路径进行优化,对优化后路径的顶点进行采样,取出其中的关键点进行插值,得到全局导航路径;根据定位信息和所述全局导航路径生成待选路径组;根据实时感知信息对每一条待选路径进行评价,得到最优路径,并输出;能够在大范围内快速搜索出接近最优的导航路径,得到一系列描述全局导航路径的点,对全局导航路径的点进行调整和选择,得到能够满足曲率连续和无碰撞的需求全局导航路径。
-
公开(公告)号:CN114581747B
公开(公告)日:2024-11-01
申请号:CN202210211754.6
申请日:2022-03-04
IPC: G06V10/80 , G06V10/82 , G06V10/26 , G06N3/0455 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于局部和全局上下文融合的显著性目标检测方法及系统,所述方法包括以下步骤:获取待显著性目标检测的RGB图片并输入预训练好的显著性目标检测模型,获得显著性目标检测结果;其中,所述显著性目标检测模型包括:特征提取网络,用于获取多尺度特征;拼接融合网络,用于获得低层细节特征和高层语义特征;局部上下文提取网络,用于输出细腻的局部上下文特征;全局上下文提取网络,用于输出细腻的全局上下文特征;融合输出网络,用于输出显著性目标检测结果。本发明能够有效地提取局部和全局上下文信息,能够提高复杂场景中显著性检测的高效性和准确性。
-
公开(公告)号:CN114429609B
公开(公告)日:2024-08-09
申请号:CN202210102806.6
申请日:2022-01-27
Applicant: 西安交通大学 , 宁波市舜安人工智能研究院
IPC: G06V20/40 , G06V40/20 , G06V10/74 , G06V10/764 , G06V10/766 , G06V10/80
Abstract: 本发明公开了一种基于动作与其共现特征重组的时序动作定位方法及系统,所述方法包括以下步骤:获取待时序动作定位的原始视频序列,分解为若干个视频片段并编码,获得编码后的视频特征序列;基于所述编码后的视频特征序列,通过预训练好的特征重组网络对原始视频特征序列进行特征重组,获得特征重组后的视频特征序列;其中,所述特征重组网络包括串接的特征解耦子网络和特征重构子网络,用于解纠缠动作特征向量并规则化共现特征向量;基于所述特征重组后的视频特征序列,获得时序动作定位结果。本发明中,首次提出对视频特征重构,以获得包含显著动作信息的新的视频特征,能够准确地分类动作和精确地检测动作边界。
-
公开(公告)号:CN113724291B
公开(公告)日:2024-04-02
申请号:CN202110865450.7
申请日:2021-07-29
Applicant: 西安交通大学 , 宁波市舜安人工智能研究院
IPC: G06T7/246 , G06V10/25 , G06V10/778 , G06V10/82 , G06N3/0464
Abstract: 本发明属于计算机视觉领域,具体公开了一种多熊猫跟踪方法、系统、终端设备及可读存储介质,主要应用于视频序列中的多熊猫跟踪任务。针对由于熊猫姿势和遮挡导致的不准确检测问题,本发明的方法使用短期预测过滤算法对检测结果进行过滤,可以在一定程度上补充漏检的熊猫和过滤掉误检;针对熊猫个体由于外观相似导致的身份标签转换问题,本发明使用了针对熊猫的细粒度特征,可以用来作为熊猫个体的外观表示,用于在时间和空间上区别具有相似外观和细微差别的不同熊猫个体。
-
公开(公告)号:CN117232522A
公开(公告)日:2023-12-15
申请号:CN202311173559.X
申请日:2023-09-12
Applicant: 西安交通大学 , 宁波市舜安人工智能研究院
IPC: G01C21/20
Abstract: 本发明公开一种基于时空交互图和危险区域的机器人人群导航方法及系统,所述方法利用时空交互图的注意力机制来捕获机器人与其它代理的协商合作交互,使用注意力机制的图神经网络,进行时空推理理解行人间的隐式交互,创建一个可以在部分可观察的人群中符合社会要求的机器人自主导航;通过考虑行人的运动学模型,构建一个实时的受约束行动空间,即潜在的危险区域,在不确定和动态的拥挤场景中,行人根据其身体状况以不可预测的速度导航,本发明构造基于行人运动特性的危险区域,显示建模机器人的受约束运动空间,没有任何专家监督的情况下使用无模型深度强化学习来训练网络,使机器人能够在人群导航中执行高效的时空推理。
-
公开(公告)号:CN117150755A
公开(公告)日:2023-12-01
申请号:CN202311090163.9
申请日:2023-08-28
Applicant: 西安交通大学
IPC: G06F30/20 , G06T17/05 , G06T15/00 , G06T15/40 , G06V10/80 , G06N3/0455 , G06N3/0464
Abstract: 本发明公开一种基于点的神经渲染的自主驾驶场景仿真方法及系统,方法通过对场景的重建和扩展,能够在不同视角下生成自动驾驶系统的真实测试数据,使用采集到的真实点云数据提供准确的深度和位置指导,避免多视图重建得到的点云可能包含的几何错误,为每个点云分配隐变量以估计其颜色信息外,附加与观察视角和采样频率相关的特征,扩展神经描述符,以更好地表征场景在不同观察视角和距离下的外观特征,使用多尺度特征融合和渐进式渲染等方法填充点云的缺失区域,并提出点云补全算法在较近和较远处增加点云密度。最后,通过神经描述符对动态障碍物进行编辑,以扩充仿真的丰富性,以模拟交通参与者的不同状态,丰富并扩展视觉仿真场景。
-
公开(公告)号:CN114429648B
公开(公告)日:2023-11-28
申请号:CN202210102835.2
申请日:2022-01-27
Applicant: 西安交通大学 , 宁波市舜安人工智能研究院
IPC: G06V40/10 , G06V20/52 , G06V10/774 , G06V10/74 , G06V10/762 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/0475 , G06N3/047 , G06N3/048 , G06N3/088 , G06N3/0895 , G06N3/094 , G06N3/0985
Abstract: 本发明公开了一种基于对比特征的行人重识别方法及系统,所述行人重识别方法包括以下步骤:获取给定的查询图像和无标签行人图像集合,输入预训练好的卷积神经网络中,获得给定的查询图像的特征向量以及给定的无标签行人图像集合的特征向量集合;基于给定的查询图像的特征向量和给定的无标签行人图像集合的特征向量集合,获得行人重识别结果。本发明提供的基于对比特征的行人重识别方法,具有较好的识别精确度。(56)对比文件Haoxuanye Ji等.Meta PairwiseRelationship Distillation forUnsupervised Person Re-identification.《Proceedings of the IEEE/CVFInternational Conference on ComputerVision (ICCV)》.2021,第3661-3670页.Xiaomeng Xin等.Semi-supervised personre-identification using multi-viewclustering《.Pattern Recognition》.2019,第88卷第285-297页.
-
公开(公告)号:CN117104267A
公开(公告)日:2023-11-24
申请号:CN202311090168.1
申请日:2023-08-28
Applicant: 西安交通大学 , 宁波市舜安人工智能研究院
Abstract: 本发明中公开一种基于类人特征的自动驾驶强化学习决策与规划方法及系统,所述决策与规划方法通过分析交通参与者的驾驶风格来确定和量化当前情况下适合自主车辆的驾驶风格;通过A2C算法训练自主车辆的行为策略,即直行车道保持/跟随、左换道和右换道;遵从所述驾驶风格和行为决策,以路径速度解耦的方式生成类人安全的轨迹;本发明所述方法捕捉了其他交通参与者的属性,以指导自动驾驶汽车以社会兼容的方式设计类似人类的、安全高效的轨迹,在复杂的多场景中实现安全与效率之间的平衡。分层行为和运动规划将驾驶任务确立为强调效率的高级行为决策过程,以及优先考虑安全的低级运动规划方法。
-
公开(公告)号:CN117058640A
公开(公告)日:2023-11-14
申请号:CN202311039603.8
申请日:2023-08-17
Applicant: 西安交通大学
IPC: G06V20/56 , G06V20/70 , G06V10/26 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0455
Abstract: 本发明公开一种融合图像特征与交通目标语义的3D车道线检测方法及系统,所述方法基于Gen‑LaneNet,针对获取的图像使用分割网络得到图像中的道路语义信息;将获取的图像和道路语义信息分别输入下采样网络中处理,获得道路语义信息特征和图像视觉特征,使用融合子网络对图像特征和道路语义信息进行融合,得到融合后的特征;将融合后的特征投影到虚拟顶视图中,由车道线检测头网络预测顶视图空间的车道线;对顶视图空间的车道线进行几何变换得到3D空间的车道线,使用特征融合模块将语义特征与视觉特征集成,利用融合的特征图预测顶视图车道线,通过几何投影直接得到真实的三维车道点,图像远端的车道线预测更加准确,相比未使用的预测精度提高了接近一倍。
-
公开(公告)号:CN116993836A
公开(公告)日:2023-11-03
申请号:CN202310978865.4
申请日:2023-08-04
Applicant: 西安交通大学 , 宁波市舜安人工智能研究院
Abstract: 本发明公开一种路端激光雷达相机标定方法及系统,方法包括以下步骤:对于两帧连续的点云,估计两帧点云之间的场景流,设定阈值实现动静分离,获得运动目标的点云场景流;对于两帧连续的图像,通过图像光流分离动态物体得到运动目标的图像光流;基于运动目标的图像光流和点云场景流,对激光雷达和相机外参进行粗标定得到对激光雷达和相机外参的初始估计;根据运动目标的图像光流和点云场景流,对激光雷达和相机外参的初始估计进行优化,得到对激光雷达和相机外参的准确估计;解决了现有标定对路端传感器部署的不便性,使用光流场景流提取交通场景中的交通流,自动化的实现激光雷达和相机的外参标定。
-
-
-
-
-
-
-
-
-