一种基于声音特征的物品材质识别方法及装置

    公开(公告)号:CN107545902B

    公开(公告)日:2020-06-02

    申请号:CN201710575310.X

    申请日:2017-07-14

    Applicant: 清华大学

    Abstract: 本发明提出一种基于声音特征的物品材质识别方法及装置,属于信号处理和模式识别领域。本方法首先选定不同材质的训练物品,敲击每个训练物品表面获取音频文件,提取音频文件的特征得到训练物品的材质特征系数矩阵,构建材质识别专家数据库并作为训练样本集训练得到极限学习机分类器;获取待测物品的音频文件并提取相应的材质特征系数矩阵,将矩阵输入极限学习机分类器,分类器输出该测试物品的输出预测值矩阵,该矩阵中每个输出值对应一种物品材质类别,最大值所对应的物品材质类别即为该待测物品的材质识别结果。本装置包括麦克风声音采集笔和计算机,两者之间通过蓝牙连接。本发明有效帮助客户进行网购产品材质识别,识别结果准确,实用性强。

    一种多阵列的指尖触觉交互装置

    公开(公告)号:CN107247523B

    公开(公告)日:2020-04-03

    申请号:CN201710382607.4

    申请日:2017-05-26

    Applicant: 清华大学

    Abstract: 本发明涉及一种多阵列的指尖触觉交互装置,属于人机交互设备技术领域。该交互装置包括布设在一块柔软电路板上的电容式多阵列传感器、主控板以及数据采样芯片;所述电容式多阵列传感器包括上感应极板、下感应极板以及固定于上、下感应极板间的若干个柔性微针,上、下感应极板之间通过填充的等离子的化学键键合;其中,所述电容式多阵列传感器的上、下感应极板直接与数据采样芯片的数模接口连接,所述数据采样芯片和主控板之间通过I2C通信接口连接。本装置可采集来自用户接触力的大小和分布,并对采集的数据进行分析和处理,判断用户的动作指令;本装置适应力强,集成方便,能实时、完整、快速地判断指尖的动作信息,实现人机交互。

    一种基于视触融合的室外移动机器人地形识别方法

    公开(公告)号:CN110909637A

    公开(公告)日:2020-03-24

    申请号:CN201911088893.9

    申请日:2019-11-08

    Applicant: 清华大学

    Abstract: 本发明提出的一种基于视触融合的室外移动机器人地形识别方法,首先根据不同路面材质选择地形种类;针对不同地形采集触觉和视觉两种模态数据,并划分训练集和测试集;构建级联宽度学习网络并使用触觉训练样本集和视觉训练样本集对该网络进行训练,训练过程中,先进行触觉和视觉初步特征提取,再进行触觉和视觉融合特征提取,随后将融合后的触觉特征矩阵和视觉特征矩阵经宽度学习分类算法,通过岭回归的广义逆近似求得地形识别分类结果作为级联宽度学习网络的输出;最后将测试集输入训练完毕的级联宽度学习网络中,得到地形识别的分类结果。本发明基于宽度学习,将视触觉信息相融合,可实现小数据下的移动机器人地形识别,且鲁棒性和准确性高。

    一种基于深度强化学习的物体检测方法

    公开(公告)号:CN108550162B

    公开(公告)日:2020-02-07

    申请号:CN201810257372.0

    申请日:2018-03-27

    Applicant: 清华大学

    Abstract: 本发明提出一种基于深度强化学习的物体检测方法,属于模式识别技术领域及主动物体检测技术领域。该方法首先建立深度强化学习神经网络;通过对机器人进行多次物体检测实验,获取训练数据对神经网络进行训练,得到训练完毕的神经网络。在使用阶段,机器人获取当前时刻的图像及图像中待检测物体的包络框输入训练完毕的神经网络,网络输出机器人下一时刻执行的动作,机器人执行动作后得到新的当前时刻的包络框并利用识别函数进行判定:若包络框中待检测物体识别可信度高于设定的识别阈值,则物体检测成功。本发明利用强化学习技术对机器人的动作进行控制,利用机器人视角的变化来获得更好的观测图像,从而获得更好的物体检测结果。

    一种基于深度强化学习的机械臂物品主动拾取方法

    公开(公告)号:CN110450153A

    公开(公告)日:2019-11-15

    申请号:CN201910608017.8

    申请日:2019-07-08

    Applicant: 清华大学

    Abstract: 本发明提出一种基于深度强化学习的机械臂物品主动拾取方法,属于人工智能和机器人应用领域。该方法首先搭建机器臂和物品拾取场景的仿真环境;搭建一个基于多个并行的U-Net的深度Q学习网络NQ;在仿真环境中进行多次机器人抓取动作策略试验对NQ进行训练,得到训练完毕的深度学习网络;实际拾取使用中,搭建物品拾取系统,利用训练完毕的深度学习网络,以深度彩色图像为输入,根据定义在置信图像上的度量来决定采用主动改变场景的动作策略或直接通过机械手进行物品拾取。本发明可以通过机械臂主动改变物品拾取环境,适应不同的拾取条件,实现较高成功率的拾取。

    一种吸盘-手爪复合抓取装置

    公开(公告)号:CN109465840A

    公开(公告)日:2019-03-15

    申请号:CN201811415845.1

    申请日:2018-11-26

    Applicant: 清华大学

    Abstract: 本发明提出一种吸盘-手爪复合抓取装置,属于分拣机器人技术领域,包括基座、外筒、吸盘和由结构相同的多个指段构成的手爪,所述外筒内设有用于驱动所述吸盘上下运动的吸盘驱动部件,该部件一端通过向上延伸的推杆与位于所述基座中心处的吸盘固定连接;多个指段圆周均布在吸盘周围、与基座保持相对平动,且各指段随基座相对于吸盘轴向具有转动自由度。本发明装置能够利用吸盘先吸取物体,然后利用手爪平行夹持物体,针对不同位置的物体,该装置可以通过吸盘与手爪间的相对旋转使得可以吸起物体后再进行手的姿态调整,该装置抓取范围大,结构简单,控制容易,成本低。

    一种基于阵列式触觉传感器的情感识别装置及方法

    公开(公告)号:CN108681412A

    公开(公告)日:2018-10-19

    申请号:CN201810323983.0

    申请日:2018-04-12

    Applicant: 清华大学

    Abstract: 本发明提出一种基于阵列式触觉传感器的情感识别装置及方法,属于电子信息、模式识别和人工智能领域。该装置包括:电源、阵列式触觉传感器及载体、微控制器和上位机;所述电源分别与阵列式触觉传感器、微控制器、上位机连接为其提供电力;阵列式触觉传感器放置在载体上并和微控制器连接,用于采集参与者执行动作的压力值数据并发送给微控制器;微控制器与上位机连接,用于控制阵列式触觉传感器工作,接收阵列式触觉传感器采集的压力值数据并保存,然后发送到上位机;上位机对从微控制器接收到的压力值数据进行保存,经过分析处理后实时显示情感识别的结果。本发明装置结构简单,方法易操作,可准确识别使用者的不同情绪,有很高的实用价值。

    一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法

    公开(公告)号:CN105005787B

    公开(公告)日:2018-05-29

    申请号:CN201510354646.4

    申请日:2015-06-24

    Applicant: 清华大学

    Abstract: 本发明涉及一种基于灵巧手触觉信息的联合稀疏编码的材质分类方法,属于材质分类技术领域,该方法包括:1)采集作为训练样本的物体的触觉信息:2)按照训练样本材质的不同,将训练样本分为i类,对每个训练样本抓取,采集触觉信息得到触觉时间序列,建立训练样本数据集;3)根据得到的训练样本数据集,提取训练样本的特征,建立触觉序列字典Φ(D);4)对需要进行分类的测试样本物体进行抓取,得到测试样本的触觉时间序列,将得到的每个测试样本触觉时间序列对其材质进行分类,得到测试样本的类别;5)对于所有测试样本遍历上述步骤4),得到每个测试样本的材质的类别。本发明在联合稀疏编码方法的基础上实现基于触觉信息的材质分类,提高了分类的鲁棒性和准确率。

    基于纹理表面接触加速度触觉信息的材质分析方法及装置

    公开(公告)号:CN107505392A

    公开(公告)日:2017-12-22

    申请号:CN201710605338.3

    申请日:2017-07-24

    Applicant: 清华大学

    Abstract: 本发明提出的一种基于纹理表面接触的加速度触觉信息的材质识别方法,属于电子信息、人工智能、模式识别和机器学习领域。该方法首先将物品划分为不同材质细类,对每种材质细类选取相对应物品并采集三轴加速度数据构成训练样本数据集;对训练样本提取特征,得到每种材质细类的融合特征向量组成融合特征矩阵;利用该矩阵训练前馈神经网络后,采集待测物品的三轴加速度数据并提取特征,输入前馈神经网络,该网络预测输出矩阵中最大值对应的细类材质即为待测物品材质分析结果。该装置包括:振动感受体、数据采集模块和上位机。本发明通过获得商品材质表面纹理的接触加速度信息判断商品的材质,应用于互联网购物,简单准确有效地反映商品的真实情况。

    一种多感知仿人五指灵巧手

    公开(公告)号:CN107471243A

    公开(公告)日:2017-12-15

    申请号:CN201710620081.9

    申请日:2017-07-26

    Applicant: 清华大学

    CPC classification number: B25J15/10 B25J15/0009 B25J19/02

    Abstract: 本发明提出的一种多感知仿人五指灵巧手,属于机器人技术领域,由手掌、大拇指、结构相同的食指和中指、结构相同的无名指和小拇指、以及多个传感器组成,共计20个自由度,其中有13个主动自由度,7个被动自由度,各手指均通过基端关节、基端指节、近端关节、近端指节、中端关节、中端指节、远端关节、远端指节以及指尖依次连接构成,各手指基端均通过多个腱与置于手掌外的驱动模块连接,驱动模块通过绳络传动方式为各手指传输动力,控制系统采集传感器信号并闭环控制灵巧手,多个传感器包括位于各指尖、指节和手掌处的阵列式触觉传感器以及角度传感器,共计31个传感器。本发明具有感知能力强,拟人化程度高,可更好地完成各项抓取任务的优点。

Patent Agency Ranking