-
公开(公告)号:CN113538241B
公开(公告)日:2024-06-14
申请号:CN202110813729.0
申请日:2021-07-19
Applicant: 宜宾电子科技大学研究院
IPC: G06T3/4053 , G06T3/4046 , G06T5/50 , G06V20/62 , G06V10/82 , G06N3/0464 , G06N3/0442 , G06N3/045 , G06N3/08
Abstract: 本发明公开了一种面向场景文本识别的超分辨率图像生成方法,首先收集若干图像对,每个图像对中包括一幅低分辨率图像和高分辨率图像,提取图像的二值掩码图像并与原始图像进行通道拼接,得到的图像对即为一组训练样本,构建面向场景文本识别的图像超分辨率网络,该网络中引入校正对齐模块对低分辨率图像进行预处理,采用训练样本对图像超分辨率网络进行训练,当需要对场景文本图像进行超分辨率图像生成时,对低分辨率的场景文本图像提取二值掩码图像并拼接得到场景文本图像,然后输入图像超分辨率网络生成得到超分辨率图像。本发明对图像超分辨率网络进行改进,提高所生成超分辨率文本图像的质量,从而进一步提高场景文本识别准确率。
-
公开(公告)号:CN116664435A
公开(公告)日:2023-08-29
申请号:CN202310643998.6
申请日:2023-06-01
Applicant: 宜宾电子科技大学研究院
IPC: G06T5/00 , G06T5/50 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多尺度人脸解析图融入的人脸复原方法,属于计算机视觉、机器学习等技术领域。首先,本发明沿用了编码器‑解码器结构搭建基础网络,在基础网络中增添了加入通道注意力模块的跳跃连接,使得解码器可以充分利用提取出的特征图中含有的有效信息进行人脸恢复;同时,将人脸解析图作为风格图像使其融入生成的人脸图像中;最后,本发明在训练时加入了有利于保存身份信息的损失函数,在人脸识别网络提取出的特征层面约束复原出的人脸身份,并加入了对抗损失与多尺度判别器,使得网络进一步生成具有更多真实细节的人脸图像。
-
公开(公告)号:CN113379597A
公开(公告)日:2021-09-10
申请号:CN202110545674.X
申请日:2021-05-19
Applicant: 宜宾电子科技大学研究院
Abstract: 本发明公开了一种人脸超分辨重构方法,首先获取包含低分辨率人脸图像和超分辨率人脸图像的人脸图像样本,然后构建人脸超分辨率重构网络,包括超分辨率重构主网络和人脸关键点先验信息估计网络,根据人脸关键点先验信息采用注意力机制,迭代处理获取低分辨率人脸图像特征,从而生成超分辨率人脸图像;采用人脸图像样本对人脸超分辨率重构网络进行训练,然后将需要进行超分辨率重构的低分辨率人脸图像输入人脸超分辨率重构网络,生成超分辨率人脸图像。本发明基于SRFBN网络进行改进,引入人脸关键点先验信息以及注意力机制,设计了人脸超分辨率重构网络,以提高人脸超分辨率重构的准确度,以便进一步提高人脸识别性能。
-
公开(公告)号:CN116596795A
公开(公告)日:2023-08-15
申请号:CN202310615353.1
申请日:2023-05-29
Applicant: 宜宾电子科技大学研究院
IPC: G06T5/00 , G06V10/26 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明所述方法公开了一种基于语义引导与注意力融合的水下图像增强方法,本发明属于计算机视觉和机器学习技术领域。本发明所述方法在水下图像增强任务中利用语义线索以提升网络对语义相同区域的增强效果一致性,改善图像边缘模糊,在一些图像退化类型上罕见但在语义上相关的场景,语义信息为网络提供先验知识,改善模型表现,提升模型泛化能力;引入特征注意力融合机制,避免了跨域信息直接融合导致的上下文信息丢失,更好地组合语义信息与重建特征,最大程度发挥语义信息的引导作用;通过空间注意力与通道注意力的结合使用,能够为退化严重区域分配更合理的权重,提升图像的增强效果。
-
公开(公告)号:CN113420291B
公开(公告)日:2022-06-14
申请号:CN202110813741.1
申请日:2021-07-19
Applicant: 宜宾电子科技大学研究院
Abstract: 本发明公开了一种基于权重集成的入侵检测特征选择方法,首先采用方差选择法从入侵检测数据集将冗余特征的数据删除,将处理得到的入侵检测数据集划分为数据集A和数据集B,将数据集A输入预设的每个特征选择方法进行特征选择,并确定所选择特征在该特征选择方法中的评分,然后采用入侵检测数据集对每个特征选择方法分别进行入侵检测测试,并且统计该特征选择方法对应的入侵检测结果的准确率,根据入侵检测结果准确率确定每个特征选择方法的特征选择结果的权重,根据权重对特征选择结果进行集成,对选择出的特征进行相关性分析,删除多余特征,得到最终的特征选择结果。本发明可提高集成效果,最终选择得到的特征集合鲁棒性更强,进而提高入侵检测精度。
-
公开(公告)号:CN113420291A
公开(公告)日:2021-09-21
申请号:CN202110813741.1
申请日:2021-07-19
Applicant: 宜宾电子科技大学研究院
Abstract: 本发明公开了一种基于权重集成的入侵检测特征选择方法,首先采用方差选择法从入侵检测数据集将冗余特征的数据删除,将处理得到的入侵检测数据集划分为数据集A和数据集B,将数据集A输入预设的每个特征选择方法进行特征选择,并确定所选择特征在该特征选择方法中的评分,然后采用入侵检测数据集对每个特征选择方法分别进行入侵检测测试,并且统计该特征选择方法对应的入侵检测结果的准确率,根据入侵检测结果准确率确定每个特征选择方法的特征选择结果的权重,根据权重对特征选择结果进行集成,对选择出的特征进行相关性分析,删除多余特征,得到最终的特征选择结果。本发明可提高集成效果,最终选择得到的特征集合鲁棒性更强,进而提高入侵检测精度。
-
公开(公告)号:CN113538241A
公开(公告)日:2021-10-22
申请号:CN202110813729.0
申请日:2021-07-19
Applicant: 宜宾电子科技大学研究院
Abstract: 本发明公开了一种面向场景文本识别的超分辨率图像生成方法,首先收集若干图像对,每个图像对中包括一幅低分辨率图像和高分辨率图像,提取图像的二值掩码图像并与原始图像进行通道拼接,得到的图像对即为一组训练样本,构建面向场景文本识别的图像超分辨率网络,该网络中引入校正对齐模块对低分辨率图像进行预处理,采用训练样本对图像超分辨率网络进行训练,当需要对场景文本图像进行超分辨率图像生成时,对低分辨率的场景文本图像提取二值掩码图像并拼接得到场景文本图像,然后输入图像超分辨率网络生成得到超分辨率图像。本发明对图像超分辨率网络进行改进,提高所生成超分辨率文本图像的质量,从而进一步提高场景文本识别准确率。
-
公开(公告)号:CN116681608A
公开(公告)日:2023-09-01
申请号:CN202310615248.8
申请日:2023-05-29
Applicant: 宜宾电子科技大学研究院
IPC: G06T5/00 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 该发明公开了一种基于参数估计的微光图像增强方法,属于计算机视觉、机器学习等领域。利用深度可分离卷积和倒残差结构优化网络的参数,保证了网络对通道和空间维度特征的提取的能力,同时降低了卷积操作的计算量和参数量。然后,利用能捕获特征全局信息的缩放点注意力机制估计了颜色校正矩阵和伽马校正参数,实现了对最终成像质量的整体优化。网络训练过程中,本发明使用了像素级差异的L2损失和认知级差异的多权重的感知损失。本发明在LoL数据集上的实验表明,当倒残差结构的扩张率为1.5时能在LoL数据集上达到最优的性能。
-
-
-
-
-
-
-