基于局部图匹配和卷积神经网络的细胞追踪方法

    公开(公告)号:CN111753835B

    公开(公告)日:2021-08-31

    申请号:CN201910762367.X

    申请日:2019-08-19

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于局部图匹配和卷积神经网络的细胞追踪方法,所述方法包括:S1、采用分水岭方法对细胞图像进行分割;S2、搭建并训练卷积神经网络,利用训练好的卷积神经网络提取待匹配细胞对的深度相似度;S3、在细胞分割图像中提取待匹配细胞对的局部三角图相似度;S4、结合提取待匹配细胞对的深度相似度和局部三角图相似度,建立相似度矩阵,并取相似度矩阵取最大值时对应的细胞对作为种子细胞;S5、从所获取的种子细胞开始,采用邻域细胞扩散方法依次匹配其相邻细胞对直至所有细胞匹配完成。本发明引入了卷积神经网络提取待匹配细胞对的深度相似度,并通过结合深度相似度和局部三角图相似度追踪细胞,具有适用范围广和追踪准确率高的特点。

    一种数字图像中树状结构末梢点的检测方法

    公开(公告)号:CN111435532B

    公开(公告)日:2021-06-22

    申请号:CN201910029830.X

    申请日:2019-01-14

    Applicant: 湖南大学

    Inventor: 刘敏 杨博 陈伟迅

    Abstract: 本发明公开了一种数字图像中树状结构末梢点的检测方法,二维末梢点检测步骤为:步骤1、检测二维图像中的二维高曲率点,将其作为候选二维末梢点;步骤2、检测树状结构在各候选二维末梢点周围的局部直径;步骤3、基于多尺度发散射线模型从候选二维末梢点中检测出真正的二维末梢点。三维末梢点检测步骤为:首先,从三维图像中提取一组二维切片图像,检测出每个二维切片图像中的二维末梢点,将检测出的二维末梢点作为候选三维末梢点;然后,基于末梢点视觉先验从候选三维末梢点中检测出真正的三维末梢点。本发明检测准确率高。

    一种数字图像中树状结构末梢点的检测方法

    公开(公告)号:CN111435532A

    公开(公告)日:2020-07-21

    申请号:CN201910029830.X

    申请日:2019-01-14

    Applicant: 湖南大学

    Inventor: 刘敏 杨博 陈伟迅

    Abstract: 本发明公开了一种数字图像中树状结构末梢点的检测方法,二维末梢点检测步骤为:步骤1、检测二维图像中的二维高曲率点,将其作为候选二维末梢点;步骤2、检测树状结构在各候选二维末梢点周围的局部直径;步骤3、基于多尺度发散射线模型从候选二维末梢点中检测出真正的二维末梢点。三维末梢点检测步骤为:首先,从三维图像中提取一组二维切片图像,检测出每个二维切片图像中的二维末梢点,将检测出的二维末梢点作为候选三维末梢点;然后,基于末梢点视觉先验从候选三维末梢点中检测出真正的三维末梢点。本发明检测准确率高。

    一种基于弱监督学习的航空发动机叶片缺陷检测方法

    公开(公告)号:CN119048500B

    公开(公告)日:2025-01-03

    申请号:CN202411525360.3

    申请日:2024-10-30

    Applicant: 湖南大学

    Abstract: 本申请涉及一种基于弱监督学习的航空发动机叶片缺陷检测方法,获取航空发动机涡轮叶片的表面图像,并对其进行类别标注;基于表面图像及其对应的类别标签,利用分类网络得到缺陷初步定位图,并生成对应的缺陷区域边界框;基于缺陷区域边界框对表面图像和缺陷初步定位图进行取块,构造图块对,并对图块对进行聚类分析;在聚类结果中选择一簇向量,对选择的向量在缺陷初步定位图和表面图像上映射的区域进行自适应抑制;将抑制后的表面图像以及缺陷初步定位图进行融合,并输入至分类网络,得到缺陷更新定位图;基于缺陷更新定位图转换得到更新的缺陷区域边界框;将表面图像和更新的缺陷区域边界框输入至视觉分割模型,得到缺陷分割结果。

    基于逐级长程捕捉与细节恢复的轻量双目立体匹配方法

    公开(公告)号:CN118864562B

    公开(公告)日:2025-01-03

    申请号:CN202411345689.1

    申请日:2024-09-26

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于逐级长程捕捉与细节恢复的轻量双目立体匹配方法,构建轻量双目立体匹配模型并优化模型;获取输入图像,经过轻量特征提取器提取输入视图的特征获取分辨率不同的一组特征;级联与组代价体构建模块用于根据提取的特征分别构建不同尺度的级联代价体与组代价体;密集尺度感知融合模块通过迭代的方式对不同尺度的组代价体进行融合和上采样;长程感知融合模块使用组代价体约束级联代价体,获取新的融合后的代价体特征,再使用沙漏型的卷积模块进行聚合,将之上采样并与对应的新组代价体融合,得到最终的代价体;对最终代价体使用稀疏视差回归,并使用上采样方法恢复最终分辨率的视差图。模型超轻量,且有效提高实时性和泛化性能。

    基于三维高斯泼溅的大型装配场景的动态实时渲染方法

    公开(公告)号:CN119229031A

    公开(公告)日:2024-12-31

    申请号:CN202411747851.2

    申请日:2024-12-02

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于三维高斯泼溅的大型装配场景的动态实时渲染方法,通过多个传感器相结合,构建一个用于动态场景实时渲染的三维高斯泼溅模型,该方法可以渲染装配场景的任意视角。三维高斯泼溅模型包括传感器数据对齐、三维高斯泼溅模型的初始化、三维高斯泼溅模型的预测与更新,结合三维高斯泼溅模型,设计了场景空间点对齐与预测器,解决多传感器数据信息冗余、动态实时渲染困难的难题,这个方法提高了装配的安全性与可靠性,能及时发现和处理装配过程中的问题,有助于推动工业智能制造快速且高质量的发展,从而推动工业制造智能化的转型。

    学生使用自带电脑考试的防作弊方法与系统

    公开(公告)号:CN113987457B

    公开(公告)日:2024-12-17

    申请号:CN202111259454.7

    申请日:2021-10-28

    Applicant: 湖南大学

    Abstract: 本发明公开了一种学生使用自带电脑考试的防作弊方法,它包括监考端和学生端;考前监考端设置许可的软件及截屏触发事件;开考时学生端切断电脑的网络连接;考中:学生端跟踪电脑上运行的软件,记录未经许可软件名称、运行时间和窗口截屏;监听电脑的系统事件,出现截屏触发事件时截屏并记录截屏时间戳;能通信时,定时向监考端发送核验信号;定时记录核验时间戳;考试结束时学生端将未发送数据发给监考端,监考端接收后判断是否有作弊行为。本发明还公开了一种使用自带电脑考试的防作弊系统,它包括实现前述监考端和学生端功能的监考端模块和学生端模块。本发明公开的方法可发现在普通考场中使用自带电脑考试时的作弊行为,从而扩大机考适用范围。

    一种基于梯度惩罚的计算机视觉特征提取方法

    公开(公告)号:CN118470343B

    公开(公告)日:2024-09-27

    申请号:CN202410941479.2

    申请日:2024-07-15

    Applicant: 湖南大学

    Abstract: 本申请涉及一种基于梯度惩罚的计算机视觉特征提取方法,对多媒体数据进行预处理;将预处理后的多媒体数据及其标注信息输入至神经网络模型,计算第一损失函数;基于第一损失函数对神经网络模型的输入数据进行反向传播,得到第一损失函数对输入数据的一阶导数;根据第一损失函数对输入数据的一阶导数计算梯度惩罚损失函数;根据第一损失函数和梯度惩罚损失函数对神经网络模型进行二次反向传播,二次反向传播的目标为模型参数,并更新模型参数;重复执行,直至达到最大训练次数,得到训练完成的神经网络模型;将待提取特征的医学的多媒体数据输入至训练完成的神经网络模型,输出预测结果。该方法可提升模型识别精度,同时可提升模型对抗攻击的能力。

Patent Agency Ranking