-
公开(公告)号:CN104657947B
公开(公告)日:2017-08-22
申请号:CN201510064027.1
申请日:2015-02-06
Applicant: 哈尔滨工业大学深圳研究生院
IPC: G06T5/00
Abstract: 本发明提供了一种针对碱基图像的降噪方法,该方法基于组合滤波以抑制生物图像中的高斯噪声,包括以下步骤:获取荧光显微镜中碱基图像;首先针对碱基图像中的亮点,使用FWHM算法,求出满足该亮点灰度分布的参数δ;然后通过使用LOG算法,检测出该亮点的边缘像素,保存边缘位置图像;最后使用双边滤波器对图像滤波,双边滤波器不仅能保护边缘像素,而且针对高斯噪声具有很好的降噪效果。使用FWHM算法计算得到的δ用于LOG算法检测以及双边滤波器滤波,与通过使用固定值来计算滤波和检测边缘效果相比,使用FWHM方法得到的结果更好。该方法能有效地去除噪声、保持边缘,在有噪声的情况下具有很好的鲁棒性。
-
公开(公告)号:CN103530659B
公开(公告)日:2017-08-22
申请号:CN201310492782.0
申请日:2013-10-18
Applicant: 哈尔滨工业大学深圳研究生院
Abstract: 本发明提出了一种结合原始人脸图像和其左、右对称脸的人脸识别方法和考勤系统。该考勤系统分为两个部分:注册和识别。注册部分包括人脸检测、图像采集和特征提取,并将人脸特征存储到人脸库中;识别部分包括人脸检测、图像采集、特征提取和人脸识别,最后输出识别结果。该系统运用本发明提出的结合原始人脸图像和其对称脸图像的人脸识别方法,该方法简单且计算效率高,几乎所有基于表示的分类方法可以用该方案进行改进。实验结果表明,该方法可以大大提高基于表示的分类方法的准确率。使用本发明提出的结合原始人脸图像和其左、右对称脸的人脸识别方法的考勤系统能够提高考勤登记时的速度,提高识别的准确率,更加方便实用。
-
公开(公告)号:CN103679148B
公开(公告)日:2017-04-26
申请号:CN201310676217.X
申请日:2013-12-11
Applicant: 哈尔滨工业大学深圳研究生院
Abstract: 本发明提出了一种聚类角点加权面积的群体聚散检测方法,包括如下步骤:A.获取视频帧图像;B.通过混合高斯背景建模方法计算出人群前景区域;C.通过Harris角点检测算法计算图像的角点;D.使用人群前景作为掩膜算子计算出图像中人群区域的角点;E.使用DBSCAN对角点进行聚类;F.使用加权法计算角点面积;G.计算角点面积的变化曲线的斜率,并结合类簇个数进行事件识别。本发明的方法通过使用角点描述人群分布,避免了对人群个体分割的不准确性;通过对人群角点进行聚类,并从人群类簇的个数可以分析出当前场景中人群整体的密集程度。通过计算角点面积变化曲线的斜率来进行事件决策,决策简单有效。事件决策过程中还增加了类簇个数变化情况进行辅助,增加了决策结果的准确性。
-
公开(公告)号:CN104657947A
公开(公告)日:2015-05-27
申请号:CN201510064027.1
申请日:2015-02-06
Applicant: 哈尔滨工业大学深圳研究生院
IPC: G06T5/00
Abstract: 本发明提供了一种针对碱基图像的降噪方法,该方法基于组合滤波以抑制生物图像中的高斯噪声,包括以下步骤:获取荧光显微镜中碱基图像;首先针对碱基图像中的亮点,使用FWHM算法,求出满足该亮点灰度分布的参数δ;然后通过使用LOG算法,检测出该亮点的边缘像素,保存边缘位置图像;最后使用双边滤波器对图像滤波,双边滤波器不仅能保护边缘像素,而且针对高斯噪声具有很好的降噪效果。使用FWHM算法计算得到的δ用于LOG算法检测以及双边滤波器滤波,与通过使用固定值来计算滤波和检测边缘效果相比,使用FWHM方法得到的结果更好。该方法能有效地去除噪声、保持边缘,在有噪声的情况下具有很好的鲁棒性。
-
公开(公告)号:CN104102921A
公开(公告)日:2014-10-15
申请号:CN201410336715.4
申请日:2014-07-15
Applicant: 广州市番禺奥莱照明电器有限公司 , 哈尔滨工业大学深圳研究生院
IPC: G06K9/62
Abstract: 本发明公开了一种基于人脸识别的视频检测方法,包括感应器检测是否有运动目标进入检测区域且光强是否低于预设阈值;根据检测结果启动摄像装置或照明装置;检测初始图像中的运动目标;利用“基于表示的距离”的由粗到细K近邻分类算法及人脸特征数据库进行人脸识别。与现有技术相比,该方法提高了准确率及人脸识别效果,还提高了视频检测的准确性。且该方法采用先动态后静态相结合的检测方式,提高了检测效率,避免了背景中有人脸照片或类似人脸的区域的误报。本发明同时公开了一种视频检测装置。该检测装置将视频检测装置与照明装置结合为一体,以保障了视频检测部分的正常工作,从而弥补了现有技术的缺陷,使得该检测装置更加地智能化。
-
公开(公告)号:CN108280811B
公开(公告)日:2021-07-06
申请号:CN201810063893.2
申请日:2018-01-23
Applicant: 哈尔滨工业大学深圳研究生院
IPC: G06T5/00
Abstract: 本发明公开了一种基于神经网络的图像去噪方法,包括:获取场景的高感光度图像和低感光度图像;生成第一神经网络模型,并利用第一神经网络模型对低感光度图像进行去噪处理,得到去噪后的低感光度图像;将高感光度图像和去噪后的低感光度图像构成训练图像数据库,并利用训练图像数据库训练神经网络模型,生成用于图像去噪的第二神经网络模型;将待处理图像作为第二神经网络模型的输入,经处理后得到对应的干净图像。此外,还公开了一种基于神经网络的图像去噪系统。上述基于神经网络的图像去噪方法和系统能处理具有真实噪声信息的图像,具有现实的应用意义。
-
公开(公告)号:CN107784284B
公开(公告)日:2021-07-06
申请号:CN201711003182.8
申请日:2017-10-24
Applicant: 哈尔滨工业大学深圳研究生院
Abstract: 本发明提出的人脸识别方法及系统,具有以下特点:1、计算速度快且计算结果逼近最优解,鲁棒性高;2、将训练样本向测试样本对齐,提高人脸识别率;3、将生成的对齐人脸图像与原始人脸图像同时作为训练样本,由所有样本组成的训练样本集合得到有效扩充;4、同时提取人脸边缘特征作为新训练样本进行分类计算,有效减少复杂背景或光照不均等因素带来的影响;5、有效地结合两种训练样本下所得残差,提高最终人脸识别率。
-
公开(公告)号:CN107563150A
公开(公告)日:2018-01-09
申请号:CN201710770933.2
申请日:2017-08-31
Applicant: 深圳大学 , 哈尔滨工业大学深圳研究生院
Abstract: 本发明适用生物信息技术领域,提供了一种蛋白质结合位点的预测方法、装置、设备及存储介质,该方法包括:接收待预测的蛋白质序列,使用预设的滑动窗口和滑动步长对蛋白质序列进行序列划分,得到多个氨基酸子序列,根据这些氨基酸子序列构建蛋白质序列的词向量,对词元素进行文档特征提取,根据提取的文档特征构建蛋白质序列的文档特征向量,对这些氨基酸子序列进行蛋白质链生物学特征提取,根据提取的生物学特征构建蛋白质序列的生物学特征向量,使用预设的氨基酸残基分类模型对使用文档特征向量和生物学特征向量表示的氨基酸子序列进行分类,得到蛋白质序列的氨基酸残基类型,从而提高了蛋白质结合位点预测的准确性和泛用性。
-
公开(公告)号:CN104166860B
公开(公告)日:2017-06-13
申请号:CN201410359737.2
申请日:2014-07-25
Applicant: 哈尔滨工业大学深圳研究生院
IPC: G06K9/66
Abstract: 本发明提供了一种基于约束的面向单个测试样本的人脸识别方法,步骤1,对训练样本集合和测试样本进行预处理;步骤2,算法的第一阶段,设计测试样本与训练样本之间的函数关系,利用训练样本线性表示测试样本的方法建立它们间的函数关系,步骤3,设计字典的类标嵌入项,步骤4,算法的第二阶段,利用训练样本集合来学习字典,并且该字典同时也是测试样本的最优表示,步骤5、分类方法:采用线性分类方法对测试样本进行分类。试验结果表明提出的算法具有计算复杂度低,重构性能、鉴别性和紧凑性强的等特点,能进一步提高人脸识别效率。
-
公开(公告)号:CN106709477A
公开(公告)日:2017-05-24
申请号:CN201710098166.5
申请日:2017-02-23
Applicant: 哈尔滨工业大学深圳研究生院
CPC classification number: G06K9/00288 , G06K9/2018 , G06K9/6292 , G06N3/084
Abstract: 本发明公开了一种基于自适应得分融合与深度学习的人脸识别方法及系统,该系统包括:近红外人脸和可见光人脸采集单元,用于通过两个模态的摄像头协同工作,共同采集同一个人脸的图片;人脸特征提取单元,用于通过深度卷积模型分别对获取的近红外人脸图片和可见光人脸图片进行特征提取;自适应的分融合单元,用于通过欧氏距离求出两张图片的相似度,也就是图片的得分,然后利用自适应的得分融合算法对使用深度学习算法提取到的人脸特征在得分层次进行融合,求出该用户最终的得分;结果输出单元,用于进行最终得分结果的输出。本发明既可以解决近红外光的光照强度对人脸成像的影响,又可以利用可见光图片解决近红外图片细节消失的问题。
-
-
-
-
-
-
-
-
-