-
公开(公告)号:CN118898848A
公开(公告)日:2024-11-05
申请号:CN202411399838.2
申请日:2024-10-09
Applicant: 厦门理工学院
IPC: G06V30/16 , G06V30/18 , G06V10/82 , G06N3/0464
Abstract: 本发明涉及一种基于色彩感知的文档图像阴影去除方法,该方法包括:获取用于训练的文档图像,构成训练集;构建端到端阴影去除模型,其中颜色感知背景提取网络从输入的阴影图像中提取背景特征并预测背景图像,阴影去除网络在第一阶段对输入的阴影图像利用背景特征生成粗略的阴影去除结果,再通过第二阶段进行细化,得到最终的去阴影图像;构建结合结构一致性损失、背景重建损失和外观一致性损失的损失函数,利用训练集对端到端阴影去除模型进行训练,通过训练优化模型参数;将训练完成的端到端阴影去除模型应用于新的文档图像,对文档图像自动进行阴影去除处理。该方法可有效去除文档图像中的阴影并保留文本细节,从而提高文档图像的可读性。
-
公开(公告)号:CN118898722A
公开(公告)日:2024-11-05
申请号:CN202411404225.3
申请日:2024-10-10
Applicant: 厦门理工学院
IPC: G06V10/422 , G06V10/80 , G06V10/774 , G06V10/82 , G06V10/10 , G06N3/0455 , G06N3/0442 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于几何基元空间感知的平面几何自动解题方法,S1将待求解的几何图示和几何题目利用解析器按预设的规则,解析成文本子句,并输入Transformer Encoder中编码;S2将几何图示图像通过卷机神经网络分成64个图示补丁特征并通过自注意力机制学习视觉模态内部特征;S3将这些模态特征输入到多模态双支路空间感知预训练语言模块中以学习跨模态全局特征和几何基元空间信息,并输入到双向GRU编码器中以执行融合编码;S4将混合编码中的文本编码送入点基元空间注意力模块中增强模型对几何基元的空间感知能力;S5将增强的混合编码由自限GRU解码器解码,并生成顺序求解程序。
-
公开(公告)号:CN118898560A
公开(公告)日:2024-11-05
申请号:CN202411398363.5
申请日:2024-10-09
Applicant: 厦门理工学院
IPC: G06T5/77 , G06T5/60 , G06T5/10 , G06N3/0455 , G06N3/0464
Abstract: 本发明提供了一种基于频域挖掘与调制的文档图像修复方法,其步骤如下:步骤S1:通过将退化图片分成多个编码块,得到相对应的特征矩阵。步骤S2:通过图像注意力模块和降采样模块结合的频域特征提取模块对于图像特征矩阵进行多次特征提取,并保存下来每一次的模块提取后的频域细节矩阵。步骤S3:将退化图片(带阴影的图片)输入频域注意力计算模块,并将之和对应的频域细节矩阵进行细化处理,然后进行上采样,重复多次,直到将图片恢复到和原本图片尺度差不多的图像。步骤S4:在最后将之输入到特征恢复模块,得到恢复图像的图片。步骤S5:将训练完成的网络应用于新的文档图像,自动进行阴影去除处理,输出清晰、无阴影的文档图像。
-
公开(公告)号:CN117475519B
公开(公告)日:2024-03-12
申请号:CN202311797195.2
申请日:2023-12-26
Applicant: 厦门理工学院 , 厦门瑞为信息技术有限公司
Abstract: 本发明公开了基于孪生网络与多重通道融合的脱机笔迹鉴别方法,将两张输入的笔迹图片进行取反操作,获取其反灰度图片,包括参考图片、测试图片、参考图片的反灰度图片、测试图片的反灰度图片四张笔迹图片;将四张笔迹图片分别进入同一个网络模型提取图像特征向量#imgabs0#,生成相应的四个特征向量;特征向量#imgabs1#经过两次双重笔迹注意力,进行权重加权处理,得到特征向量Y;将四张笔迹图片经过图像处理的128维图片进行融合,融合有512维图片;将融合后的图片经过自注意力与卷积操作,进行判断;将输出的特征向量进行sigmoid操作,将其作为置信度用来判断两张输入图片是否为同一个人书写。
-
公开(公告)号:CN117523587A
公开(公告)日:2024-02-06
申请号:CN202311427150.6
申请日:2023-10-31
Applicant: 厦门理工学院
IPC: G06V30/242 , G06V30/19 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/0442
Abstract: 本发明涉及一种基于字符敏感编辑距离的零样本汉字识别方法。汉字图像经过编码器,得到特征向量;特征向量分别经过解码器、部首计数模块,得到预测的汉字表意描述序列以及预测部首数量;汉字表意描述序列中的部首数量与预测部首数量相比较,形成代价门控用来约束编辑距离中的插入代价和删除代价。通过查找结构、笔画数、偏旁和四角号码字典信息,获得每个部首对之间的相似度作为替换代价;汉字表意描述序列和IDS字典中的每个候选序列经过编辑距离获得相似得分;选取相似得分最高的候选序列所对应的汉字为最终汉字。本发明方法消除了模型错误识别成相似部首和模型过解析或欠解析造成的部首序列失匹配的影响,有效地提高了对未见汉字的识别能力。
-
公开(公告)号:CN117197157A
公开(公告)日:2023-12-08
申请号:CN202310059519.6
申请日:2023-01-16
Applicant: 厦门理工学院
Abstract: 本发明涉及基于网格区域指导的交互式图像分割方法,包括,步骤S1:获取待处理图像,并根据分割目标属性选择网格大小;步骤S2:在待处理图像上覆盖步骤S1选择的相应大小的网格区域;步骤S3:在交互选择时,实时判断点击行为和移动轨迹,记录并可视化反馈用户选择的网格区域;步骤S4:确认完成所有选择后,将记录的选择区域转化为高斯距离图,生成正负指导,和原图拼接后,得到输入数据;步骤S5:构建分割网络并训练,将训练好的分割网络根据输入数据对目标进行分割,返回初始的分割结果;步骤S6:基于初始的分割结果,根据预设大小的正方形框对错误区域进行校正框选;步骤S7:根据校正框选的区域对交互指导做出修改,重新输入网络分割,并返回细化结果。
-
公开(公告)号:CN116798008A
公开(公告)日:2023-09-22
申请号:CN202310751516.9
申请日:2023-06-25
Applicant: 厦门理工学院
IPC: G06V20/54 , G06V10/74 , G06V10/80 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明提出一种基于代表性空间特征的车辆重识别方法,通过分析基于代表性空间方向的有效细微表征特征,分离车辆的代表性空间SRS信息和非空间区域的辨别信息,来完成车辆重识别任务,包括以下步骤;步骤一、选择并训练用于提取车辆关键点信息的识别网络,并通过关键点信息捕捉到有代表性的局部空间区域;步骤二、利用局部空间区域的代表性空间特征和非空间区域的区分性特征来消除空间转移产生的干扰,同时增强识别网络的模型稳健性;步骤三、结合全局鉴别性信息、代表性空间信息进行车辆再识别,以提高模型的性能;本发明能够明显提高车辆识别任务的性能,有效地提高了模型对空间视角信息变化的处理能力,解决了各种时空状态下的物体匹配问题。
-
公开(公告)号:CN116778384A
公开(公告)日:2023-09-19
申请号:CN202310751151.X
申请日:2023-06-25
Applicant: 厦门理工学院
IPC: G06V20/40 , G06V20/52 , G06V10/80 , G06V10/764 , G06V10/774 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于多帧交互与多层融合的视频行人重识别方法及系统,该方法包括以下步骤:1)从数据集中抽取多个行人的视频序列,形成由视频序列组成的训练数据集;2)构建基于多帧交互与多层融合的视频行人重识别网络模型,所述视频行人重识别网络模型主要包括帧内空间交互模块、多帧时序交互模块、多级别局部增强模块、分割策略模块和多帧分类头结合模块;通过使用训练数据集对视频行人重识别网络模型进行训练,得到网络模型参数;3)将训练好的视频行人重识别网络模型用于检索测试视频中含有该行人的视频,实现视频行人重识别。该方法及系统有利于获得更加稳定、鲁棒、准确的视频行人重识别结果。
-
公开(公告)号:CN115187997B
公开(公告)日:2023-07-28
申请号:CN202210823652.X
申请日:2022-07-13
Applicant: 厦门理工学院
IPC: G06V30/18 , G06V30/19 , G06V30/28 , G06V10/44 , G06V10/75 , G06V10/764 , G06V10/82 , G06N3/0442 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明提出一种基于关键偏旁部首分析的零样本汉字识别方法,包括以下步骤;步骤S1:获取汉字图像建立汉字识别数据集;步骤S2:把数据集中的每个汉字表示为唯一的树状结构,进行先序遍历,获取汉字表意描述序列;步骤S3:建立汉字表意描述序列生成模型;步骤S4:使用汉字识别数据集对汉字表意描述序列生成模型进行深度学习训练;步骤S5:以深度学习训练后的汉字表意描述序列生成模型经汉字表意描述序列生成模型,生成汉字的表意描述序列;步骤S6:建立关键偏旁部首分析模型;步骤S7:根据生成的汉字表意描述序列,使用关键偏旁部首分析模型对汉字类别进行预测。本发明能将汉字识别问题转化为不确定性消除问题,提高模型对预测表意描述序列的利用能力。
-
公开(公告)号:CN113379764B
公开(公告)日:2023-06-02
申请号:CN202110621825.5
申请日:2021-06-02
Applicant: 厦门理工学院
Abstract: 本发明涉及一种基于域对抗自监督学习的病理图像分割方法。包括:获取病理图像建立病理图像自监督数据集;建立域对抗自监督模型;使用病理图像自监督数据集对域对抗自监督模型进行深度学习训练;建立病理图像分割模型;使用经过深度学习后的域对抗自监督模型对病理图像分割模型进行初始化;对病理图像中的病灶区域进行像素级别标注建立病理图像分割数据集;使用病理图像分割数据集对病理图像分割模型进行深度学习训练;使用深度学习训练后的病理图像分割模型对病理图像的未知病灶区域进行分割。本发明方法,采用域对抗自监督学习的方法,有效缓解了分割模型对大量人工标注的依赖并解决了模型在不同域上分割性能波动的问题。
-
-
-
-
-
-
-
-
-