-
公开(公告)号:CN109344845A
公开(公告)日:2019-02-15
申请号:CN201811112938.7
申请日:2018-09-21
Applicant: 哈尔滨工业大学
Abstract: 一种基于Triplet深度神经网络结构的特征匹配方法,属于图像处理技术领域。本发明的目的在于解决现有技术的SIFT及基于深度学习的TFeat、HardNet等特征描述方法存在匹配性能较差的问题。本发明设计了一个对训练样本均值和方差做约束的新型损失函数,结合Triplet深度神经网络,可得到性能优异的特征描述,用高斯分布描述匹配特征对和不匹配特征对的距离分布,根据减小特征匹配误差等价于减小两个匹配特征对距离分布重叠面积这一原则,得出对训练样本均值和方差做约束的新型损失函数。实验结果表明,与现有特征描述方法相比,本发明在匹配性能上得到了提升。
-
公开(公告)号:CN103878770B
公开(公告)日:2016-08-31
申请号:CN201410138351.9
申请日:2014-04-08
Applicant: 哈尔滨工业大学
IPC: B25J9/16
Abstract: 基于速度估计的空间机器人视觉时延误差补偿方法,解决了漂浮基座下空间机器人视觉测量时延误差的补偿问题。包括确定系统的视觉时延,建立带时延的视觉测量数据与物理真实相对位姿间的数学关系;根据带时延的视觉测量数据和机械臂的关节指令,估计当前的空间机器人末端速度;设计误差控制器,减小空间机器人末端速度的估计误差;根据校正后空间机器人末端速度估值,对当前带有时延的视觉测量数据进行补偿,得到经过补偿的视觉测量数据。本发明利用历史测量数据融合关节角速度指令估计当前空间机器人末端速度,设计估计误差控制器以减小速度估计的误差;实现漂浮基座下空间机器人精确的视觉时延补偿,有利于实现空间机器人高精度地完成精细操作任务。
-
公开(公告)号:CN101837592A
公开(公告)日:2010-09-22
申请号:CN201010169569.2
申请日:2010-05-12
Applicant: 哈尔滨工业大学
IPC: B25J19/00
CPC classification number: B25J9/102
Abstract: 基于锥齿轮差动耦合机构的仿人机器人头部,它涉及一种仿人机器人头部。本发明解决了现有的头部结构不紧凑,独立关节结构体积较大,占用头部较大空间,且只具有俯仰和回转两个运动的问题。所述头部回转关节通过回转关节支座与颈部基关节的运动输出支架连接,颈部基关节通过颈部基关节支座与颈部底座中的颈部底座连接,所述头部外壳与相机回转支架固定连接,空套差动锥齿轮分别与两个主动差动锥齿轮啮合,被动差动锥齿轮分别与两个主动差动锥齿轮啮合,两个主动差动锥齿轮、被动差动锥齿轮和空套差动锥齿轮的轮齿参数一致并构成差动锥齿轮机构。本发明应用于仿人形机器人头部视觉测量与跟踪。
-
公开(公告)号:CN111179440B
公开(公告)日:2023-04-14
申请号:CN202010003676.1
申请日:2020-01-02
Applicant: 哈尔滨工业大学
Abstract: 一种面向自然场景的三维物体模型检索方法,本发明属于图像处理技术领域。本发明为解决自然图像与多视角表达的三维模型存在的数据领域差异,实现自然图像对多视角三维物体的检索。技术要点:模型的多视角投影与渲染;构建跨领域检索网络;构建三元组立体损失训练数据;训练自然图像到多视角模型映射的网络;自然图像的模型检索。本发明所提出的面向自然场景的三维物体模型检索方法的检索正确率达到94.8%。该方法有效解决了自然图像检索三维物体模型问题,在增强现实和计算机辅助设计等领域,具有广泛的应用前景。
-
公开(公告)号:CN109344845B
公开(公告)日:2020-06-09
申请号:CN201811112938.7
申请日:2018-09-21
Applicant: 哈尔滨工业大学
Abstract: 一种基于Triplet深度神经网络结构的特征匹配方法,属于图像处理技术领域。本发明的目的在于解决现有技术的SIFT及基于深度学习的TFeat、HardNet等特征描述方法存在匹配性能较差的问题。本发明设计了一个对训练样本均值和方差做约束的新型损失函数,结合Triplet深度神经网络,可得到性能优异的特征描述,用高斯分布描述匹配特征对和不匹配特征对的距离分布,根据减小特征匹配误差等价于减小两个匹配特征对距离分布重叠面积这一原则,得出对训练样本均值和方差做约束的新型损失函数。实验结果表明,与现有特征描述方法相比,本发明在匹配性能上得到了提升。
-
公开(公告)号:CN108280856A
公开(公告)日:2018-07-13
申请号:CN201810139292.5
申请日:2018-02-09
Applicant: 哈尔滨工业大学
IPC: G06T7/73
Abstract: 基于混合信息输入网络模型的未知物体抓取位姿估计方法,属于机器人自主抓取领域。本发明为了实现机器人对未知物体的快速、有效抓取。对训练图像数据集中的图像混合信息进行预处理;构建基于混合信息输入的信息融合机制,并搭建神经网络模型;对包含混合信息融合机制的网络模型参数进行训练,获得优化后的混合信息输入网络模型;利用基于RGB-D图像的物体分割技术实现对传感器采集到的场景图像进行可抓取物体分割;利用基于反馈信息的候选区域生成机制,搜索获得物体上的最佳抓取区域;利用深度信息估计机器人在最佳抓取区域的抓取位置和抓取姿态,进而获得抓取物体时的抓取位姿。该方法有利于机器人快速、准确地实现对未知物体的自主抓取。
-
公开(公告)号:CN108280488A
公开(公告)日:2018-07-13
申请号:CN201810139235.7
申请日:2018-02-09
Applicant: 哈尔滨工业大学
IPC: G06K9/62
Abstract: 基于共享神经网络的可抓取物体识别方法,属于智能机器人自主抓取领域。为了解决在训练数据有限条件下使机器人实现对物体的可抓取性判别和物体的种类识别问题。技术要点:对场景中物体支撑平面的参数估计;获得最终的物体分割区域;学习物体的图像特征;构建共享神经网络模型,将可抓取物体识别问题分解为物体可抓取性判别和可抓取物体识别两个子任务,实现由粗到细的可抓取物体有效识别;对共享神经网络模型进行预训练和模型训练,优化神经网络模型的参数;利用模型对物体的可抓取特性及可抓取物体的类别进行识别。该方法能够从有限的数据样本中获得稀疏可压缩的自学习图像特征,从而快速、准确的实现对可抓取物体的识别与分类,具有识别正确率高和可移植性好的特点。
-
公开(公告)号:CN103869704B
公开(公告)日:2016-05-25
申请号:CN201410138354.2
申请日:2014-04-08
Applicant: 哈尔滨工业大学
IPC: G05B13/04
Abstract: 基于扩展雅克比矩阵的空间机器人星臂协调控制方法,解决在轨工作的空间机械臂与基座卫星整体协同控制问题。包括计算空间机器人的运动学和动力学参数;建立基于扩展雅可比矩阵的空间机器人数学模型;设计空间机器人星臂协调控制器;对机械臂末端轨迹进行参数化;对机械臂轨迹进行优化;计算空间机器人单框架控制力矩陀螺系统的角速度指令。本发明不需要卫星根据姿态测量进行滞后的反馈控制,通过将臂星的耦合运动进行整体数学建模,根据输入的机械臂末端轨迹,直接计算出卫星需补偿机械臂运动的单框架控制力矩陀螺系统的角速度指令,实现臂星的整体协调控制;机械臂末端轨迹经过优化使卫星态控制系统补偿机械臂反作用力矩所消耗的能量较小。
-
公开(公告)号:CN117001715A
公开(公告)日:2023-11-07
申请号:CN202311105770.8
申请日:2023-08-30
Applicant: 哈尔滨工业大学
IPC: B25J19/00
Abstract: 本发明涉及机器人技术领域,具体而言,涉及一种面向视觉功能障碍者的智能辅助系统及方法;包括语音装置、拍摄装置、中央处理装置、距离感应装置和机械手;中央处理装置用于:根据语音装置获取的语音信息确定穿戴者的目标操作指令以及指令目标;根据指令目标的特征信息和拍摄装置获取的图像信息,确定指令目标在图像信息中的位置;根据距离感应装置获取到的指令目标与穿戴者的距离信息,确定目标作业点位;根据距离信息和目标作业点位生成引导指令;当穿戴者到达目标作业点位时,根据机械手的接近觉传感器获取机械手与指令目标的相对距离信息;根据距离信息和相对距离信息生成辅助信号。实现了视觉障碍者在陌生环境下独自完成目标指令操作。
-
公开(公告)号:CN108280488B
公开(公告)日:2021-05-07
申请号:CN201810139235.7
申请日:2018-02-09
Applicant: 哈尔滨工业大学
IPC: G06K9/62
Abstract: 基于共享神经网络的可抓取物体识别方法,属于智能机器人自主抓取领域。为了解决在训练数据有限条件下使机器人实现对物体的可抓取性判别和物体的种类识别问题。技术要点:对场景中物体支撑平面的参数估计;获得最终的物体分割区域;学习物体的图像特征;构建共享神经网络模型,将可抓取物体识别问题分解为物体可抓取性判别和可抓取物体识别两个子任务,实现由粗到细的可抓取物体有效识别;对共享神经网络模型进行预训练和模型训练,优化神经网络模型的参数;利用模型对物体的可抓取特性及可抓取物体的类别进行识别。该方法能够从有限的数据样本中获得稀疏可压缩的自学习图像特征,从而快速、准确的实现对可抓取物体的识别与分类,具有识别正确率高和可移植性好的特点。
-
-
-
-
-
-
-
-
-