-
公开(公告)号:CN109919974B
公开(公告)日:2023-07-14
申请号:CN201910129845.3
申请日:2019-02-21
Applicant: 上海理工大学
Abstract: 本发明公开了一种基于R‑FCN框架多候选关联的在线多目标跟踪方法,本方法首先对于每帧中目标建立候选选择模型,筛选出没有冗余的最佳候选框;其次,融合目标外观信息、目标尺度信息和目标运动信息等多种特征信息作为数据关联的匹配代价;通过匈牙利算法并利用计算的匹配代价对相邻帧中轨迹和目标候选框进行数据关联,并完成对跟踪轨迹的更新;最后利用RANSAC算法确定的直线方程对存在的跟踪轨迹进行优化得到目标最终的跟踪轨迹。本方法克服了检测器检测结果的可靠性问题,减少了目标漏检和检测漂移对跟踪轨迹的影响,对复杂跟踪场景具有较好的鲁棒性。
-
公开(公告)号:CN116152430A
公开(公告)日:2023-05-23
申请号:CN202211475723.8
申请日:2022-11-23
Applicant: 上海理工大学 , 上海交通大学医学院附属上海儿童医学中心
IPC: G06T17/00 , A61B8/08 , A61B8/00 , G06V10/26 , G06V10/774 , G06V10/32 , G06T7/00 , G06T5/20 , G06V10/44 , G06V10/82 , G16H50/20
Abstract: 本发明提出一种基于边缘强化以及自注意力机制的3D超声心动图左右心室三维建模的方法,将含时序的超声心动图数据拆解成单帧三维数据。对于单帧三维数据,利用基于自注意力双分支网络实现对于左右心室的分割,该网络通过双分支的结构强化了模型对于边缘处特征的学习能力,并通过在网络底层引入全局自注意力以提高全局上下文信息的捕获能力。完成所有单帧的三维分割后实现所有帧三维心脏左右心室模型的可视化,并串接成完整心动周期下的左右心室分割序列。本发明通过自注意力双分支网络实现了对于3D超声心动图的高效且精细分割。在保证分割精度的条件下,减少了超声心动图数据人力三维建模的时间,提高了医生的诊断效率,具有极高的临床应用价值。
-
公开(公告)号:CN109886358B
公开(公告)日:2022-03-08
申请号:CN201910216232.3
申请日:2019-03-21
Applicant: 上海理工大学
IPC: G06V10/774 , G06N3/04
Abstract: 本发明提出了一种基于多时空信息融合卷积神经网络的人体行为识别方法,首先构建(2+1)D卷积神经网络,经训练后直到网络模型评估准确率达到稳定值后,使用网格模型进行视频人体行为识别。本发明中提出的(2+1)D卷积神经网络同时使用不同尺度空间感受野的空间卷积层进行空间信息提取,同时使用多个不同尺度时域感受野的时域卷积层进行时域信息提取,将提取的特征信息融合后作为下一层的输入,将包含n种尺度空间感受野的卷积核与包含m种尺度时域感受野的卷积核进行串联,设计了包含k种时空感受野的多时空融合卷积层,能够同时利用视频较长和较短时间范围内的特征信息建模,更准确地识别人体行为。
-
公开(公告)号:CN107703948B
公开(公告)日:2020-09-29
申请号:CN201711119755.3
申请日:2017-11-14
Applicant: 上海理工大学
IPC: G05D1/02
Abstract: 本发明公开了一种基于自适应动态窗口的移动机器人局部动态路径规划方法,包括以下步骤:计算动态范围阈值Dscale;判断是否进入密集障碍物区域;当判断为进入密集障碍物区域时,计算线速度v的动态权值γd;计算障碍物的间距Intij,并判断能否穿越密集障碍物区域;当判断为能够穿过密集障碍物区域时,搜索备选速度空间,得到不发生碰撞时的允许速度(v,ω);对目标函数的三个输入heading、dist和vel分别做归一化,将动态权值γd以及允许速度(v,ω)代入目标函数中,通过目标函数得到最优速度组合(vt+1,ωt+1)作为t+1时刻机器人运行的速度;执行最优速度,判断是否到达目标点,若判断为到达则结束让机器人停止移动,若否则回到第一步,重新开始后续步骤。
-
公开(公告)号:CN110648310A
公开(公告)日:2020-01-03
申请号:CN201910815305.0
申请日:2019-08-30
Applicant: 上海理工大学
Abstract: 本发明涉及一种基于注意力机制的弱监督铸件缺陷识别方法,首先获取铸件的射线图像,并图像中铸件类别和缺陷进行多标签的弱标注,形成训练集。然后在训练样本集上训练ResNe-50网络模型,利用多标签信息,形成注意力机制,使模型在弱监督的情况下对铸件缺陷进行精准识别,再计算激活映射图得出缺陷的准确位置。本发明在保证铸件缺陷识别正确率的情况下,减少了标注数据的人力消耗,最终实现了生产成本的降低。
-
公开(公告)号:CN109919974A
公开(公告)日:2019-06-21
申请号:CN201910129845.3
申请日:2019-02-21
Applicant: 上海理工大学
Abstract: 本发明公开了一种基于R-FCN框架多候选关联的在线多目标跟踪方法,本方法首先对于每帧中目标建立候选选择模型,筛选出没有冗余的最佳候选框;其次,融合目标外观信息、目标尺度信息和目标运动信息等多种特征信息作为数据关联的匹配代价;通过匈牙利算法并利用计算的匹配代价对相邻帧中轨迹和目标候选框进行数据关联,并完成对跟踪轨迹的更新;最后利用RANSAC算法确定的直线方程对存在的跟踪轨迹进行优化得到目标最终的跟踪轨迹。本方法克服了检测器检测结果的可靠性问题,减少了目标漏检和检测漂移对跟踪轨迹的影响,对复杂跟踪场景具有较好的鲁棒性。
-
公开(公告)号:CN109886358A
公开(公告)日:2019-06-14
申请号:CN201910216232.3
申请日:2019-03-21
Applicant: 上海理工大学
Abstract: 本发明提出了一种基于多时空信息融合卷积神经网络的人体行为识别方法,首先构建(2+1)D卷积神经网络,经训练后直到网络模型评估准确率达到稳定值后,使用网格模型进行视频人体行为识别。本发明中提出的(2+1)D卷积神经网络同时使用不同尺度空间感受野的空间卷积层进行空间信息提取,同时使用多个不同尺度时域感受野的时域卷积层进行时域信息提取,将提取的特征信息融合后作为下一层的输入,将包含n种尺度空间感受野的卷积核与包含m种尺度时域感受野的卷积核进行串联,设计了包含k种时空感受野的多时空融合卷积层,能够同时利用视频较长和较短时间范围内的特征信息建模,更准确地识别人体行为。
-
公开(公告)号:CN108596074A
公开(公告)日:2018-09-28
申请号:CN201810354823.2
申请日:2018-04-19
Applicant: 上海理工大学
Abstract: 本发明公开了一种基于惯性传感器的人体下肢动作识别方法。首先利用内置加速度计和陀螺仪的惯性传感器收集人体膝关节处的加速度、角速度和角度信号;然后对信号使用时间窗法,让窗口随着时间不断的截取信号片段。针对信号本身存在的噪音问题,采用小波去噪法将其去除。接下来对截取后的信号片段采用傅立叶变换并将其系数作为特征值。最后采用支持向量机(SVM)的方法进行下肢动作的模型训练和路况识别。本方法的优势在于,使用一系列预处理和特征提取算法获得更加能表现动作行为的特征值,然后使用SVM识别人体下肢动作方式和路况,该方法不但减少模型的训练时间,而且提高了模型的识别速度和准确率。
-
公开(公告)号:CN109141427B
公开(公告)日:2022-01-25
申请号:CN201810992786.8
申请日:2018-08-29
Applicant: 上海理工大学
IPC: G01C21/20
Abstract: 本发明提供了一种在非视距环境下基于距离和角度概率模型的EKF定位方法,用于对移动目标(x,y)进行定位,具有这样的特征,包括以下步骤:步骤1,在多个基站和样本点间找出存在非视距因素的样本点;步骤2,求出距离区间中存在非视距因素的样本点的概率;步骤3,求出角度区间中存在非视距因素的样本点的概率;步骤4,进行多项式曲线拟合,得到距离‑非视距概率和角度‑非视距概率;步骤5,求得第i个基站(xi,yi)与移动目标(x,y)间存在非视距因素的概率;步骤6,求取到每个基站的概率密度函数;步骤7,对移动目标(x,y)的位置进行估计;步骤8,根据估计位置来校正目标与基站的距离;步骤9,根据卡尔曼滤波算法对移动目标的状态进行预测、校正以及更新来完成定位。
-
公开(公告)号:CN109740539B
公开(公告)日:2021-07-13
申请号:CN201910007340.X
申请日:2019-01-04
Applicant: 上海理工大学
Abstract: 本发明涉及一种基于超限学习机和融合卷积网络的3D物体识别方法,模型以3D物体的多视角投影图作为输入,经过多层融合卷积网络提取特征,利用半随机的ELM网络进行分类;卷积网络由提出的融合卷积单元组成,是一种改进的残差单元,多个并行残差通道上的卷积核个数依次增加,相同大小的卷积核参数共享。半数卷积核参数以高斯分布随机产生,其余通过训练寻优得到,使其能拟合更复杂的非线性函数,增加低层网络的特征提取能力。方法中使用了半随机的超限学习机分类层,既降低了模型训练的时间又增加了网络的稀疏性;结合了超限学习机和融合卷积网络,以2D视角图作为输入,其识别3D物体的准确率高于现有的深度学习的方法,网络实现更简单。
-
-
-
-
-
-
-
-
-