-
公开(公告)号:CN113327233B
公开(公告)日:2023-05-16
申请号:CN202110591907.X
申请日:2021-05-28
Applicant: 北京理工大学重庆创新中心 , 北京理工大学
IPC: G06T7/00 , G06V10/82 , G06N3/047 , G06N3/0464 , G06N3/096 , G06V10/764 , G06V10/766
Abstract: 本发明提供了一种基于迁移学习的细胞图像检测方法,通过傅里叶叠层显微成像系统采集了细胞图像并通过频谱迭代进行融合获得大视场、高分辨率细胞图像,采用VGG和FPN网络模型构建细胞密度估计网络,对细胞图像中细胞中心位置进行标注获取细胞密度图输入训练模型,将训练好的网络模型作为骨干网络构建细胞检测网络模型,进行迁移学习,获取细胞检测图输入细胞检测网络模型中,采用RPN网络提取候选区域,通过回归器和分类器对细胞进行位置回归和分类,最终得到细胞预测结果。本发明基于迁移学习,通过迁移学习训练能够提取到相似数据集共同特征的网络模型,解决了训练样本不足的问题,同时保证了模型输出的准确性。
-
公开(公告)号:CN111105416B
公开(公告)日:2022-09-09
申请号:CN201911419285.1
申请日:2019-12-31
Applicant: 北京理工大学重庆创新中心 , 北京理工大学
Abstract: 本发明公开了一种骨髓细胞增生程度自动分级方法及系统,属于计算显微成像领域的技术领域该方法包括以下步骤:将骨髓涂片经过图像采集以得到强度图和相位图;将强度图和相位图输入至卷积神经网络模型中,并通过卷积神经网络模型对骨髓涂片中的有核细胞与无核细胞分别进行计数;根据计数的结果计算有核细胞与无核细胞的比例,并获取骨髓细胞增生程度的等级,以达到克服了人工计数中的复杂问题,为骨髓细胞增生程度分级提供准确细胞计数的目的。
-
公开(公告)号:CN114965293A
公开(公告)日:2022-08-30
申请号:CN202210504116.3
申请日:2022-05-10
Applicant: 北京理工大学重庆创新中心 , 北京理工大学
Abstract: 本发明提供了一种偏振光谱特征融合的水中氨氮检测方法,用于偏振光谱特征融合系统,系统包括光源、反射镜、四分之一波片、线偏振片、光纤透镜和光纤光谱仪;方法包括:C1:通过系统基于目标水样,采集偏振调制光谱;C2:解调目标水样反射光波的四个斯托克斯参量光谱;C3:选取不同数量的偏振调制光谱和斯托克斯参量光谱分别进行光谱特征融合;C4:基于氨氮浓度不同的目标水样的特征融合光谱,进行光谱分类。本发明实现了基于偏振特征融合光谱检测水中氨氮,通过光与物质之间的相互作用,无需使用辅助试剂,准确的检测水中氨氮浓度。
-
公开(公告)号:CN111144364B
公开(公告)日:2022-07-26
申请号:CN201911410558.6
申请日:2019-12-31
Applicant: 北京理工大学重庆创新中心 , 北京理工大学
Abstract: 本发明公开了一种基于通道注意更新机制的孪生网络目标跟踪方法,涉及图像处理领域,利用孪生网络提取特征,选取前景模板及背景模板,通过自适应通道选择机制突出目标模板特征与前景模板特征的相关性,激活有效前景通道抑制背景特征通道;通过候选区域生成网络生成初步跟踪结果,以置信度决策跟踪可信度触发模板更新机制,通过通道注意更新网络生成更新模板,并利用目标模板与更新模板进行再次跟踪,融合重跟踪结果,修正跟踪误差。提高了跟踪器的前景特征提取能力,改善了目标跟踪方法对背景干扰的判别能力,弥补了跟踪过程中不进行在线模板更新难以处理跟踪复杂情况的缺点,避免了跟踪漂移,使跟踪过程更为鲁棒,跟踪精度更为准确。
-
公开(公告)号:CN114419392A
公开(公告)日:2022-04-29
申请号:CN202210061669.6
申请日:2022-01-19
Applicant: 北京理工大学重庆创新中心 , 北京理工大学
IPC: G06V10/774 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了高光谱快照图像恢复方法、装置、设备及介质,该方法包括获取光谱图像数据集编写卷积神经网络所需的数据接口;构建训练集和测试集;使用随机掩膜与训练集进行叠加,设定通道像素,并将图像进行倾斜处理后在光谱维度进行叠加获得混叠图像作为输入,训练集作为待拟合数据,端到端训练模型;以深度迭代展开的形式构建恢复算法;利用基于区域自注意力机制的神经网络进行建模学习,构建恢复算法模型;设置训练参数和损失函数策略,对构建好的恢复算法模型进行训练并验证;通过恢复算法模型将压缩感知图像恢复为高光谱图像。本发明利用高光谱数据特有的光谱‑空间相关性,高精度、高效率恢复原始高光谱图像信息。
-
公开(公告)号:CN114287879A
公开(公告)日:2022-04-08
申请号:CN202111670565.7
申请日:2021-12-31
Applicant: 北京理工大学重庆创新中心 , 北京理工大学
IPC: A61B3/12
Abstract: 本发明公开了一种病灶分割的方法、设备及介质,属于计算机视觉领域,包括基于transformer结构的全局注意模块和基于transformer结构的特征注意模块,以及基于如上模块的带权重的交叉熵损失函数的使用;本发明不仅能够获取病灶和血管的细节信息和充分利用血管分布包含的丰富的眼底先验信息,而且还能够获得图像中不同病灶的依赖关系和病灶与血管之间的隐性病理关联,能够更准确地实现对DR多病灶的同时分割,使得前后景像素点不均衡问题得到克服,实现了实际医学诊断中较难且较为重要的多病灶的同时精确分割,解决了现有技术中分割模型难以学到病灶的标准特征和存在误分割和错分割的技术问题。
-
公开(公告)号:CN113887662A
公开(公告)日:2022-01-04
申请号:CN202111244501.0
申请日:2021-10-26
Applicant: 北京理工大学重庆创新中心 , 北京理工大学
Abstract: 本发明公开了一种基于残差网络的图像分类方法、装置、设备及介质,该方法包括获取根据数据特征分类的数据集,并根据所述数据特征编写卷积神经网络所需的数据接口;制作数据集标签,每一类不同数据特征的数据集对应一个数据集标签;构建训练集和测试集,将数据集分割成若干等份;构建深层残差单元,搭建卷积神经网络,建立图像分类模型;对图像分类模型设置训练参数和损失函数策略,确定分类器输出的分类结果;对图像分类模型进行网络训练和网络测试;向图像分类模型中输入待分类图像,获得分类结果。本发明通过构建图像分类模型辅助医生诊断,减轻眼科医生负担、缩短检查时间,降低疾病不同等级对应的图片筛查的时间和人力成本。
-
公开(公告)号:CN112781728A
公开(公告)日:2021-05-11
申请号:CN202011610708.0
申请日:2020-12-30
Applicant: 北京理工大学重庆创新中心 , 北京理工大学
IPC: G01J4/00
Abstract: 本发明公开了精确求解结合压缩感知的全偏振高光谱成像方法,能够通过特定的两次全偏振调制,精确求解第一个斯托克斯参量,并据此提高后三个斯托克斯参量的重构精度,从而仅需一步重构用时;本发明利用四分之一波片、线偏振片和液晶可调滤波器组合实现全偏振调制和高光谱成像,固定四分之一波片的快轴角度和液晶可调滤波器的入射面线偏振角度,通过选取线偏振片的线偏振角度依次为45度和135度,获得两种全偏振调制,实现了偏振调制的最大自由度,且特定的调制方式简便灵活。
-
公开(公告)号:CN111161323A
公开(公告)日:2020-05-15
申请号:CN201911419540.2
申请日:2019-12-31
Applicant: 北京理工大学重庆创新中心 , 北京理工大学
IPC: G06T7/246
Abstract: 本发明提供了一种基于相关滤波的复杂场景目标跟踪方法:步骤1、对带有目标标注框的第一帧视频图像,通过传统相关滤波训练方法得到滤波器;步骤2、读取下一帧图像,将当前帧图像的搜索区域与上一帧得到的滤波器进行卷积操作,得到响应图像,对响应图像计算最大值得到当前帧相关滤波跟踪结果;将当前帧相关滤波跟踪结果与基于颜色直方图的目标跟踪结果进行互补融合,得到当前帧跟踪结果;步骤3、通过评价标准对响应图像判断是否属于复杂场景决定当前帧的滤波器训练方式;步骤4、重复步骤2-3,直到读取完视频序列的所有帧,目标跟踪结束。采用本方法避免了背景杂乱以及目标严重形变等复杂场景跟踪漂移的问题。
-
公开(公告)号:CN111161321A
公开(公告)日:2020-05-15
申请号:CN201911410671.4
申请日:2019-12-31
Applicant: 北京理工大学重庆创新中心 , 北京理工大学
Abstract: 本发明提供了一种基于背景感知的相关滤波跟踪方法,包括以下过程:步骤1、读取视频第一帧图像与待跟踪目标的位置信息,加入训练集;步骤2、提取训练集中目标区域特征训练带有背景感知的相关滤波器;步骤3、读取下一帧视频图像并提取搜索区域图像特征;步骤4、将提取的搜索区域图像特征与相关滤波器进行卷积操作得到当前帧待跟踪目标位置信息,并将当前帧视频图像与待跟踪目标位置信息加入训练集;步骤5、重复步骤2-4直至读取视频所有帧结束,得到每一帧视频图像中待跟踪目标位置信息。通过采用该方法能够有效利用跟踪过程中的背景信息,更加准确地预测目标位置。
-
-
-
-
-
-
-
-
-