基于R-FCN框架多候选关联的在线多目标跟踪方法

    公开(公告)号:CN109919974B

    公开(公告)日:2023-07-14

    申请号:CN201910129845.3

    申请日:2019-02-21

    Abstract: 本发明公开了一种基于R‑FCN框架多候选关联的在线多目标跟踪方法,本方法首先对于每帧中目标建立候选选择模型,筛选出没有冗余的最佳候选框;其次,融合目标外观信息、目标尺度信息和目标运动信息等多种特征信息作为数据关联的匹配代价;通过匈牙利算法并利用计算的匹配代价对相邻帧中轨迹和目标候选框进行数据关联,并完成对跟踪轨迹的更新;最后利用RANSAC算法确定的直线方程对存在的跟踪轨迹进行优化得到目标最终的跟踪轨迹。本方法克服了检测器检测结果的可靠性问题,减少了目标漏检和检测漂移对跟踪轨迹的影响,对复杂跟踪场景具有较好的鲁棒性。

    基于多时空信息融合卷积神经网络的人体行为识别方法

    公开(公告)号:CN109886358B

    公开(公告)日:2022-03-08

    申请号:CN201910216232.3

    申请日:2019-03-21

    Abstract: 本发明提出了一种基于多时空信息融合卷积神经网络的人体行为识别方法,首先构建(2+1)D卷积神经网络,经训练后直到网络模型评估准确率达到稳定值后,使用网格模型进行视频人体行为识别。本发明中提出的(2+1)D卷积神经网络同时使用不同尺度空间感受野的空间卷积层进行空间信息提取,同时使用多个不同尺度时域感受野的时域卷积层进行时域信息提取,将提取的特征信息融合后作为下一层的输入,将包含n种尺度空间感受野的卷积核与包含m种尺度时域感受野的卷积核进行串联,设计了包含k种时空感受野的多时空融合卷积层,能够同时利用视频较长和较短时间范围内的特征信息建模,更准确地识别人体行为。

    基于自适应动态窗口的移动机器人局部动态路径规划方法

    公开(公告)号:CN107703948B

    公开(公告)日:2020-09-29

    申请号:CN201711119755.3

    申请日:2017-11-14

    Abstract: 本发明公开了一种基于自适应动态窗口的移动机器人局部动态路径规划方法,包括以下步骤:计算动态范围阈值Dscale;判断是否进入密集障碍物区域;当判断为进入密集障碍物区域时,计算线速度v的动态权值γd;计算障碍物的间距Intij,并判断能否穿越密集障碍物区域;当判断为能够穿过密集障碍物区域时,搜索备选速度空间,得到不发生碰撞时的允许速度(v,ω);对目标函数的三个输入heading、dist和vel分别做归一化,将动态权值γd以及允许速度(v,ω)代入目标函数中,通过目标函数得到最优速度组合(vt+1,ωt+1)作为t+1时刻机器人运行的速度;执行最优速度,判断是否到达目标点,若判断为到达则结束让机器人停止移动,若否则回到第一步,重新开始后续步骤。

    基于注意力机制的弱监督铸件缺陷识别方法

    公开(公告)号:CN110648310A

    公开(公告)日:2020-01-03

    申请号:CN201910815305.0

    申请日:2019-08-30

    Inventor: 王永雄 胡川飞

    Abstract: 本发明涉及一种基于注意力机制的弱监督铸件缺陷识别方法,首先获取铸件的射线图像,并图像中铸件类别和缺陷进行多标签的弱标注,形成训练集。然后在训练样本集上训练ResNe-50网络模型,利用多标签信息,形成注意力机制,使模型在弱监督的情况下对铸件缺陷进行精准识别,再计算激活映射图得出缺陷的准确位置。本发明在保证铸件缺陷识别正确率的情况下,减少了标注数据的人力消耗,最终实现了生产成本的降低。

    基于R-FCN框架多候选关联的在线多目标跟踪方法

    公开(公告)号:CN109919974A

    公开(公告)日:2019-06-21

    申请号:CN201910129845.3

    申请日:2019-02-21

    Abstract: 本发明公开了一种基于R-FCN框架多候选关联的在线多目标跟踪方法,本方法首先对于每帧中目标建立候选选择模型,筛选出没有冗余的最佳候选框;其次,融合目标外观信息、目标尺度信息和目标运动信息等多种特征信息作为数据关联的匹配代价;通过匈牙利算法并利用计算的匹配代价对相邻帧中轨迹和目标候选框进行数据关联,并完成对跟踪轨迹的更新;最后利用RANSAC算法确定的直线方程对存在的跟踪轨迹进行优化得到目标最终的跟踪轨迹。本方法克服了检测器检测结果的可靠性问题,减少了目标漏检和检测漂移对跟踪轨迹的影响,对复杂跟踪场景具有较好的鲁棒性。

    基于多时空信息融合卷积神经网络的人体行为识别方法

    公开(公告)号:CN109886358A

    公开(公告)日:2019-06-14

    申请号:CN201910216232.3

    申请日:2019-03-21

    Abstract: 本发明提出了一种基于多时空信息融合卷积神经网络的人体行为识别方法,首先构建(2+1)D卷积神经网络,经训练后直到网络模型评估准确率达到稳定值后,使用网格模型进行视频人体行为识别。本发明中提出的(2+1)D卷积神经网络同时使用不同尺度空间感受野的空间卷积层进行空间信息提取,同时使用多个不同尺度时域感受野的时域卷积层进行时域信息提取,将提取的特征信息融合后作为下一层的输入,将包含n种尺度空间感受野的卷积核与包含m种尺度时域感受野的卷积核进行串联,设计了包含k种时空感受野的多时空融合卷积层,能够同时利用视频较长和较短时间范围内的特征信息建模,更准确地识别人体行为。

    一种基于惯性传感器的人体下肢动作识别方法

    公开(公告)号:CN108596074A

    公开(公告)日:2018-09-28

    申请号:CN201810354823.2

    申请日:2018-04-19

    Abstract: 本发明公开了一种基于惯性传感器的人体下肢动作识别方法。首先利用内置加速度计和陀螺仪的惯性传感器收集人体膝关节处的加速度、角速度和角度信号;然后对信号使用时间窗法,让窗口随着时间不断的截取信号片段。针对信号本身存在的噪音问题,采用小波去噪法将其去除。接下来对截取后的信号片段采用傅立叶变换并将其系数作为特征值。最后采用支持向量机(SVM)的方法进行下肢动作的模型训练和路况识别。本方法的优势在于,使用一系列预处理和特征提取算法获得更加能表现动作行为的特征值,然后使用SVM识别人体下肢动作方式和路况,该方法不但减少模型的训练时间,而且提高了模型的识别速度和准确率。

    在非视距环境下基于距离和角度概率模型的EKF定位方法

    公开(公告)号:CN109141427B

    公开(公告)日:2022-01-25

    申请号:CN201810992786.8

    申请日:2018-08-29

    Abstract: 本发明提供了一种在非视距环境下基于距离和角度概率模型的EKF定位方法,用于对移动目标(x,y)进行定位,具有这样的特征,包括以下步骤:步骤1,在多个基站和样本点间找出存在非视距因素的样本点;步骤2,求出距离区间中存在非视距因素的样本点的概率;步骤3,求出角度区间中存在非视距因素的样本点的概率;步骤4,进行多项式曲线拟合,得到距离‑非视距概率和角度‑非视距概率;步骤5,求得第i个基站(xi,yi)与移动目标(x,y)间存在非视距因素的概率;步骤6,求取到每个基站的概率密度函数;步骤7,对移动目标(x,y)的位置进行估计;步骤8,根据估计位置来校正目标与基站的距离;步骤9,根据卡尔曼滤波算法对移动目标的状态进行预测、校正以及更新来完成定位。

    基于超限学习机和融合卷积网络的3D物体识别方法

    公开(公告)号:CN109740539B

    公开(公告)日:2021-07-13

    申请号:CN201910007340.X

    申请日:2019-01-04

    Abstract: 本发明涉及一种基于超限学习机和融合卷积网络的3D物体识别方法,模型以3D物体的多视角投影图作为输入,经过多层融合卷积网络提取特征,利用半随机的ELM网络进行分类;卷积网络由提出的融合卷积单元组成,是一种改进的残差单元,多个并行残差通道上的卷积核个数依次增加,相同大小的卷积核参数共享。半数卷积核参数以高斯分布随机产生,其余通过训练寻优得到,使其能拟合更复杂的非线性函数,增加低层网络的特征提取能力。方法中使用了半随机的超限学习机分类层,既降低了模型训练的时间又增加了网络的稀疏性;结合了超限学习机和融合卷积网络,以2D视角图作为输入,其识别3D物体的准确率高于现有的深度学习的方法,网络实现更简单。

Patent Agency Ranking