一种行车环视系统中全景图生成方法、系统及存储介质

    公开(公告)号:CN111275621A

    公开(公告)日:2020-06-12

    申请号:CN202010054477.3

    申请日:2020-01-17

    Applicant: 中南大学

    Abstract: 本发明公开了一种行车环视系统中全景图生成方法、系统及存储介质,其中方法包括:获取鱼眼镜头实时采集的车身周围的原始鱼眼图像及车辆模型;基于原始鱼眼图像、车辆模型、第一像素位置映射表生成全景图,其中第一像素位置映射表为预先获得的原始鱼眼图像到拼接后图像的像素位置映射表。通过预先生成第一像素位置映射表,该过程中繁杂的矩阵运算交给PC机来完成,只将得到的第一像素位置映射表存储至硬件中进行应用,然后由硬件将获取的原始鱼眼图像基于第一像素位置映射表直接进行重映射,再结合车辆模型直接生成全景图,该硬件本身无需再计算生成第一像素位置映射表的中间过程,降低硬件处理计算能力的要求,有效降低行车环视系统的实现成本。

    一种步态特征提取方法及基于步态特征的行人身份识别方法

    公开(公告)号:CN110084156A

    公开(公告)日:2019-08-02

    申请号:CN201910295000.1

    申请日:2019-04-12

    Applicant: 中南大学

    Abstract: 本发明公开了一种步态特征提取方法及基于步态特征的行人身份识别方法,步态特征提取方法包括以下步骤:步骤A:对步态图像序列中的每一帧步态图像,获取其中行人所在区域,作为感兴趣区域;步骤B:分割感兴趣区域中的行人目标;步骤C:获取每一帧步态图像中行人目标的关节点位置信息;步骤D:基于该步态图像序列的各帧步态图像中行人目标的关节点位置信息,进行步态周期检测;步骤E:根检测出的步态周期,合成该步态图像序列对应的步态能量图,作为步态特征。基于提取出的步态特征利用判别网络和对比网络对行人目标进行判断或识别。本发明较好解决了步态识别领域小样本分类中样本量不足的问题,且算法实时性好。

    基于激光多普勒的远距离非可视室内声源定位方法和系统

    公开(公告)号:CN116449293A

    公开(公告)日:2023-07-18

    申请号:CN202210011753.7

    申请日:2022-01-06

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于激光多普勒的远距离非可视室内声源定位方法和系统,其中方法为:步骤1,将M个激光侦听设备分别设置于室外M个侦听监测点,使用M个侦听监测点上的激光侦听设备同步时间获取位于室内M个振动介质的振动信号;步骤2,将振动介质的振动信号转换为语音数字信号;步骤3,采用改进型PHAT加权广义互相关时延估计算法,计算参考振动介质接收声源信号与其他每个振动介质接收声源信号的时间差值,进而转换为参考振动介质至声源点与其他每个振动介质至声源点的距离差值;步骤4,根据各振动介质至声源的距离差值,计算声源点的坐标位置。本发明对远距离非可视的室内声源定位精度更高,应用范围广。

    基于多深度卷积神经网络融合的天气图像智能识别方法及系统

    公开(公告)号:CN111476713B

    公开(公告)日:2022-07-22

    申请号:CN202010223800.5

    申请日:2020-03-26

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于多深度卷积神经网络融合的天气图像智能识别方法及系统,该方法包括以下步骤:步骤A:采集图像,并对图像进行预处理;步骤B:搭建四种不同结构的深度卷积神经网络模型,分别对其全连接层进行改进,新增一层特征层,并基于步骤A得到的高质量训练数据进行网络的训练;步骤C:将所获得的四种深度学习模型新增特征层的特征提取出来,采用Xgboost集成学习模型进行训练,获得融合模型;步骤D:对需要识别的天气图像进行扩增,由获得的融合模型对扩增后的天气图像进行识别,经过投票得出最终票数最高的识别种类。本发明解决了已有传统天气识别方法手动提取图像特征的低效问题,有效提升了深度学习模型识别的准确率。

    一种基于多任务课程式学习的眼底图像分类方法、装置、设备及介质

    公开(公告)号:CN113610118A

    公开(公告)日:2021-11-05

    申请号:CN202110814221.2

    申请日:2021-07-19

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于多任务课程式学习的眼底图像分类方法、装置、设备及介质,方法为:使用眼底图像样本训练教师网络,然后生成眼底图像样本的证据图谱;设计包括证据图谱预测和青光眼预测两个分支的多任务学生网络;根据青光眼分类标签、教师网络和学生网络的预测结果,设计样本先验加权系数和样本反馈损失系数,基于该两个系数设计学生网络的损失函数;以眼底图像样本同时作为学生网络两个预测分支的输入,以分类标签作为青光眼预测分支的输出,以标签证据图谱作为证据图谱预测分支的输出,基于损失函数训练学生网络;使用训练完毕的学生网络,生成待分类眼底图像的青光眼分类标签和证据图谱。本发明提升分类准确率并生成分类决策的证据图谱。

    一种基于膨胀最近邻特征增强的点云语义分割方法

    公开(公告)号:CN112418235A

    公开(公告)日:2021-02-26

    申请号:CN202011316437.8

    申请日:2020-11-20

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于膨胀最近邻特征增强的点云语义分割方法,所提出的膨胀最近邻特征增强部分包含以下步骤:步骤A:设置需要提取的邻域点数目n以及设置膨胀因子d。步骤B:采用最近邻算法提取n*d的点云数目。步骤C:以膨胀因子d为步长提取步骤B所得到的邻域点云,从而得到数目为n的邻域点云,这n个邻域点云称为膨胀邻域。步骤D:中心点云特征与步骤C得到的邻域点云特征进行特征融合,从而使得单个点云信息包含大规模局部区域结构特征。最后得到每一个点云的增强特征后进行点云语义分割。本发明利用三维膨胀最近邻模块对全部原始点云做特征增强操作,提升了点云感受野的大小,进而提升分割的精度。

    一种儿童伴学机器人及其早教系统自学习方法

    公开(公告)号:CN109559576B

    公开(公告)日:2020-07-28

    申请号:CN201811367002.9

    申请日:2018-11-16

    Applicant: 中南大学

    Abstract: 本发明公开了一种儿童伴学机器人及其早教系统自学习方法,自学习方法包括:步骤A10,训练卷积神经网络;步骤A20,采用卷积神经网络对输入的图像提取特征向量;步骤A30,采用乘积量化技术对特征向量分组量化;步骤A40,根据Imagenet数据集生成基准字母表;步骤A50,获取未知的新事物的图像和类别,提取新事物图像的特征向量并分组量化,并在基准字母表中查找匹配的新事物字符串;在联想记忆模型中将新事物字符串与类别匹配连接,实现将新事物学习到早教系统中;步骤A60,获取待识别事物的图像,早教系统识别得到待识别事物的类别。本发明可以实现与儿童一起学习新知识,共同竞赛,提高儿童学习的乐趣。

    一种基于层级实时记忆的步态识别方法

    公开(公告)号:CN109858351A

    公开(公告)日:2019-06-07

    申请号:CN201811600836.X

    申请日:2018-12-26

    Applicant: 中南大学

    Abstract: 本发明公开了一种基于层级实时记忆的步态识别方法,在新个体学习阶段,通过获取该个体不同角度的步态图片序列训练样本,以训练层级实时记忆模型,且输出层得到训练样本的聚类结果,然后根据聚类结果与身份和角度标记,计算层级实时记忆模型的输出层中的条件概率;在身份识别阶段,通过获取待识别个体的步态图片序列,层级实时记忆模型的输出层得到待识别个体的步态图片序列的聚类结果,选择与聚类结果对应的条件概率最高的身份和角度标记,作为待识别个体的身份和角度。本发明方法不但可以提取时间特征,而且多视角的共同训练克服了以往步态识别单视角的局限性,提高了步态识别的识别率。

    一种视网膜眼底图像杯盘比自动评估方法

    公开(公告)号:CN109829877A

    公开(公告)日:2019-05-31

    申请号:CN201811099755.6

    申请日:2018-09-20

    Applicant: 中南大学

    Abstract: 本发明公开了一种视网膜眼底图像杯盘比自动评估方法,包括以下步骤:A:从视网膜眼底图像中提取视盘区域图像;步骤B:基于深度卷积神经网络搭建和训练视盘视杯分割网络;步骤C:将待测视网膜眼底图像按步骤A获取待测视盘区域图像,再将待测视盘区域图像输入到视盘视杯分割网络,以输出待测视盘分割掩膜图像和待测视杯分割掩膜图像;步骤D:根据待测视盘分割掩膜图像和待测视杯分割掩膜图像,计算视网膜眼底图像的杯盘比。本发明方法运行速度快,效果好,不仅不需要人工参与而且成本代价低,具有很强的通用性,可广泛应用于青光眼辅助筛查。

Patent Agency Ranking