-
公开(公告)号:CN119131265B
公开(公告)日:2025-04-04
申请号:CN202411595094.1
申请日:2024-11-11
Applicant: 哈尔滨工业大学(威海)
Abstract: 本公开的实施例提供了一种基于多视角一致性的三维全景场景理解方法及装置;涉及三维场景重建领域。方法包括将待重建场景的多视角图像输入预先训练好的三维全景辐射场模型,以便预先训练好的三维全景辐射场模型利用二维全景分割算法对待重建场景中各视角图像的几何特征、语义特征和颜色特征进行分割并对分割后的几何特征、语义特征和颜色特征分别进行视角一致性处理,获取视角一致的几何特征、语义特征和颜色特征;根据视角一致的几何特征、语义特征和颜色特征,通过预先训练好的三维全景辐射场模型重建待重建场景,获取待重建场景的全景图像。以此解决了多视角下语义歧义、几何结构失真的问题,提高了三维全景场景重建与理解的精度及一致性。
-
公开(公告)号:CN119131265A
公开(公告)日:2024-12-13
申请号:CN202411595094.1
申请日:2024-11-11
Applicant: 哈尔滨工业大学(威海)
Abstract: 本公开的实施例提供了一种基于多视角一致性的三维全景场景理解方法及装置;涉及三维场景重建领域。方法包括将待重建场景的多视角图像输入预先训练好的三维全景辐射场模型,以便预先训练好的三维全景辐射场模型利用二维全景分割算法对待重建场景中各视角图像的几何特征、语义特征和颜色特征进行分割并对分割后的几何特征、语义特征和颜色特征分别进行视角一致性处理,获取视角一致的几何特征、语义特征和颜色特征;根据视角一致的几何特征、语义特征和颜色特征,通过预先训练好的三维全景辐射场模型重建待重建场景,获取待重建场景的全景图像。以此解决了多视角下语义歧义、几何结构失真的问题,提高了三维全景场景重建与理解的精度及一致性。
-
公开(公告)号:CN119107348A
公开(公告)日:2024-12-10
申请号:CN202411578120.X
申请日:2024-11-07
Applicant: 哈尔滨工业大学(威海)
Abstract: 本公开的实施例提供了一种基于点云补全的机械臂抓取方法及装置;涉及机器人抓取领域。方法包括调整当前拍摄角度,获取待抓取对象在当前拍摄角度下的点云数据;将点云数据与之前获取的其他拍摄角度下的点云数据进行配准与合并;将合并后的点云数据输入点云补全网络,生成待抓取对象的完整几何结构;根据生成的完整几何结构利用抓取姿态检测方法生成抓取姿势;利用运动规划方法控制机械臂采用抓取姿势对待抓取对象进行抓取操作;若抓取失败,则重复以上抓取过程,直至抓取成功。以此方式,可以大幅减少对多视角或复杂传感器布置的依赖,利用动态更新机制不断优化抓取姿势,提高抓取的成功率、鲁棒性以及机械臂在复杂环境下的适用性与实用性。
-
-