一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置

    公开(公告)号:CN109948425B

    公开(公告)日:2023-06-09

    申请号:CN201910061943.8

    申请日:2019-01-22

    Abstract: 本发明公开了一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置,属于计算机视觉技术处理技术领域。在训练阶段,首先通过一个卷积神经网络和非局部层的结合,对输入的整个场景图像进行特征提取,得到它的特征表示,针对行人的这一特殊对象设计结构感知的锚点,提升检测框架性能,将检测出的行人框池化成相同尺寸后,送入行人重识别网络训练,保存,优化和更新具有标签的行人特征。在模型测试阶段,使用训练好的非局部卷积神经网络对输入场景图像进行行人检测,检测出行人框之后,并用目标行人图像进行特相似度匹配排序并检索。本发明可对大规模的现实场景图像同时进行行人检测和重识别,在城市监控等安防领域发挥重要作用。

    一种基于多尺度生成式对抗网络的红外和可见光图像融合方法

    公开(公告)号:CN111145131B

    公开(公告)日:2023-05-26

    申请号:CN201911187619.7

    申请日:2019-11-28

    Abstract: 本发明公开了一种基于多尺度生成式对抗网络的红外和可见光图像融合方法,解决由光谱分辨率和空间分辨率制约以及物理条件的限制,红外图像具有很高的光谱分辨率而其空间分辨率却较低的问题。包括:第一阶段,构造生成式对抗网络模型,利用高分辨率可见光图像生成高质量红外图像,一方面红外图像数据得到了增强扩充,另一方面提高了红外图像的分辨率;第二阶段,通过高分辨率可见光图像与其低通版本的差乘以增益因子获得空间细节信息,然后将提取到的空间细节信息注入到第一阶段生成后的高分辨率红外图像中,最终得到融合后的高分辨率图像,使得融合图像可以同时保持红外图像中的热辐射信息和可见图像中的纹理信息。

    一种融合用户主观属性的个性化图像美学评价方法及装置

    公开(公告)号:CN113033693A

    公开(公告)日:2021-06-25

    申请号:CN202110381991.2

    申请日:2021-04-09

    Inventor: 祝汉城 周勇 姚睿

    Abstract: 本发明公开的一种融合用户主观属性的个性化图像美学评价方法及装置,涉及计算机美学技术领域。该方法首先获取图像美学评价数据集,提取用户评分较高的图像数据,输入到用户主观属性预测模型中,获得主观属性;然后构建大众化图像美学评价网络模型和个性化图像美学差异网络模型,并对其进行训练;接着利用目标用户的图像美学评价数据对上述两个模型组成的个性化图像美学评价网络模型进行微调训练;最后将待测试图像输入到个性化图像美学评价网络模型中,得到目标用户的个性化美学评分。本发明通过目标用户对图像的美学评分获取该用户的主观属性,并把相应的主观属性融入到个性化图像美学评价模型中,提高个性化图像美学评价模型的有效性和鲁棒性。

    一种基于聚类的无监督跨域行人重识别方法

    公开(公告)号:CN111860678A

    公开(公告)日:2020-10-30

    申请号:CN202010744097.2

    申请日:2020-07-29

    Abstract: 本发明公开了一种基于聚类的无监督跨域行人重识别方法,属于计算机视觉领域。具体实现(1)搭建用于预训练的神经网络;(2)将源域有标签的数据输入预训练网络,做有监督的预训练;(3)搭建用于微调的双流相互学习网络框架;(4)训练双流相互学习框架,输出适用于目标域的行人重识别模型。本发明利用有标签的源域数据集和无标签的目标域数据集,以及相互学习的网络框架,实现无监督的跨域行人重识别;引入自注意力机制和全局联合池化操作,以及提出新的损失函数——联合灵活优化损失,并选用更合适开放集数据的聚类方法,从而使得模型性能获得明显提升。

    一种时空部件图的视频目标分割方法

    公开(公告)号:CN111652899A

    公开(公告)日:2020-09-11

    申请号:CN202010475318.0

    申请日:2020-05-29

    Abstract: 一种时空部件图的视频目标分割方法,首先使用孪生编码模型,分两个分支:一个分支输入历史帧和掩模捕获序列的动态特征,另一个分支输入当前帧图像和前一帧的分割掩模。其次,构建时空部件图,使用图卷积网络,学习时空特征,增强目标的外观和运动模型;并引入通道注意模块,把鲁棒的时空目标模型输出到解码模块。最后,设计平滑精细模块,结合相邻阶段的多尺度图像特征,从时空信息中分割出目标。本发明时空部件图模型可生成鲁棒目标外观和运动特征,解决目标遮挡、快速变化及背景杂波问题,进而缓解目标外观变化而导致的视觉目标漂移问题,同时能够提高视频目标分割的性能。

    基于多模态图像风格转换的跨模态行人重识别方法

    公开(公告)号:CN111539255A

    公开(公告)日:2020-08-14

    申请号:CN202010227374.2

    申请日:2020-03-27

    Abstract: 本发明公开了一种基于多模态图像风格转换的跨模态行人重识别方法,根据行人图像数据集,对训练图像进行收集和预处理获取训练样本;构建解耦图像特征的自动编码网络模型,该模型对处理后输入的行人图像进行特征解耦,分为域无关的内容特征和域相关的风格特征;构建基于模态转换的生成网络和判别网络模型,该模型实现不同域行人图像的风格属性信息互换,实现变换风格的样本生成;本发明方法针对行人重识别算法易受不同光照影响的问题,通过神经网络提取行人图像的特征来学习不同图像的相似性矩阵,该方法学习到的度量矩阵比人为选定的矩阵具有灵活性,更能获得图像特征之间的相似性。

    一种基于多摄像头判定的井下皮带异物检测系统及方法

    公开(公告)号:CN106990109B

    公开(公告)日:2019-09-06

    申请号:CN201710176375.7

    申请日:2017-03-23

    Abstract: 本发明公开了一种基于多摄像头判定的井下皮带异物检测系统及方法。所述系统包括:摄像头录像模块,所述摄像头录像模块包含至少两个高清摄像头;所述摄像头录像模块通过局域网,将获取视频录像分别送入数据存储模块和服务器处理模块;所述数据存储模块设置网络视频录像机和第一显示器,且所述网络视频录像机内设硬盘存储器及视频输出端口和USB扩展插槽;所述服务器处理模块设置服务器和第二显示器。所述方法包括:基于图像检测算法与皮带异物检测算法、基于贝叶斯估计的多摄像协同判定算法。本发明用多个摄像头实时监视煤矿井下皮带,图像数据信息通过局域网送至高性能服务器,并利用本发明的算法对此图像进行检测处理,实时回馈皮带异物检测结果。

    一种多目标深度卷积生成式对抗网络模型的学习方法

    公开(公告)号:CN108171266A

    公开(公告)日:2018-06-15

    申请号:CN201711442778.8

    申请日:2017-12-25

    Abstract: 本发明公开了一种多目标深度卷积生成式对抗网络模型及其学习方法,主要解决目前深度卷积生成式对抗网络训练难以收敛和训练不稳定问题,其实现方案是:提出了多目标深度卷积生成式对抗网络模型;采用群搜索策略同时训练多组深度卷积生成式对抗网络实现多个个体协同进化保证了模型训练的稳定性;采用Pareto占优机制每次迭代中选择潜在最优的生成网络和对抗网络的组合进行后期的训练保证了模型训练的收敛性;针对深度卷积网络特性设计了交叉算子实现不同网络之间参数信息的交互;结合演化算法的全局搜索能力和梯度下降算法的快速局部搜索能力可以有效地保证新提出的学习框架的准确性和有效性。

Patent Agency Ranking