-
公开(公告)号:CN110189247B
公开(公告)日:2021-01-19
申请号:CN201910409543.1
申请日:2019-05-16
Applicant: 北京航空航天大学
Abstract: 本发明提供一种图像生成的方法、装置及系统,该方法,包括:获取第一双鱼眼图像对应的初始全景图像;从所述初始全景图像中提取出第一特征图像;从第二双鱼图像中提取视觉特征信息;其中,所述第二双鱼图像的分辨率高于所述第一双鱼图像的分辨率;将所述第一特征图像与所述视觉特征信息进行融合处理,得到融合全景图像。可以实现无需高要求的硬件设备、无需进行初始化等繁琐操作,获得较高精准度的高分辨率融合全景图像,还可以提高获得高分辨率融合全景图像的速度。
-
公开(公告)号:CN113642515B
公开(公告)日:2023-11-24
申请号:CN202111007502.3
申请日:2021-08-30
Applicant: 北京航空航天大学
IPC: G06V40/10 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本公开的实施例公开了基于姿态关联的行人识别方法与装置、电子设备和介质。该方法的一具体实施方式包括:获取行人图像和自身类别,将行人图像和自身类别输入预先训练的ResNet和预先训练的HR‑Net中,得到第一特征图和热度图;将热度图经过上采样扩大范围,融合为掩码图;将第一特征图和掩码图输入部件内部关联模块中,以生成第二特征图;对第二特征图进行横向和方块的划分,得到特征集合,对热度图进行关键点式的划分,得到关键点特征集合;将特征集合和关键点特征集合输入部件外部关联模块,得到全局特征和局部特征,根据全局特征和局部特征,得到图像表征和分类结果。该实施方式提高了行人识别的准确率。
-
公开(公告)号:CN110991460B
公开(公告)日:2023-11-21
申请号:CN201910984822.0
申请日:2019-10-16
Applicant: 北京航空航天大学
IPC: G06V10/764 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
-
公开(公告)号:CN113642515A
公开(公告)日:2021-11-12
申请号:CN202111007502.3
申请日:2021-08-30
Applicant: 北京航空航天大学
Abstract: 本公开的实施例公开了基于姿态关联的行人识别方法与装置、电子设备和介质。该方法的一具体实施方式包括:获取行人图像和自身类别,将行人图像和自身类别输入预先训练的ResNet和预先训练的HR‑Net中,得到第一特征图和热度图;将热度图经过上采样扩大范围,融合为掩码图;将第一特征图和掩码图输入部件内部关联模块中,以生成第二特征图;对第二特征图进行横向和方块的划分,得到特征集合,对热度图进行关键点式的划分,得到关键点特征集合;将特征集合和关键点特征集合输入部件外部关联模块,得到全局特征和局部特征,根据全局特征和局部特征,得到图像表征和分类结果。该实施方式提高了行人识别的准确率。
-
公开(公告)号:CN109741331B
公开(公告)日:2021-10-26
申请号:CN201811578893.2
申请日:2018-12-24
Applicant: 北京航空航天大学
Abstract: 本发明涉及一种图像前景物体分割方法,针对图像前景物体不同区域的特征,构建基于边界关注的图像前景物体分割卷积神经网络,该网络首先利用特征提取骨干网络进行图像特征提取,然后利用边界定位子网络得到边界特征和选择性置信图,同时利用内部感知子网络得到内部特征及不变性置信图,利用过渡补充子网络得到前景物体边界和内部之间的过渡补充特征,三路子网络的输出通过边界关注的特征马赛克选择方式得到前景物体分割结果;接下来,对基于边界关注的图像前景物体分割卷积神经网络进行训练,将图像输入已训练的上述卷积神经网络中,实现图像前景物体分割。本发明能够有效将前景物体分割为一个整体,同时对边缘细节处理得很好,且处理图像速度快。
-
公开(公告)号:CN113222041A
公开(公告)日:2021-08-06
申请号:CN202110567940.9
申请日:2021-05-24
Applicant: 北京航空航天大学
Abstract: 本发明实施例提供一种图结构表征的高阶关联发现细粒度图像识别方法及装置,其中方法包括:将待分类图像输入具有多个阶段的卷积神经网络特征提取器,提取最后一个阶段的两层网络特征图,根据网络特征图,构建混合高阶注意力模块,并根据混合高阶注意力模块形成高阶特征向量池,将向量池中的每一个向量作为节点,并利用高阶特征间的语义相似性,分组形成代表性向量节点,对代表性向量节点进行全局池化,得到分类向量,并基于分类向量,通过全连接层和分类器得到细粒度分类结果,无需依赖额外的部件特征提取网络,实现对图像特征的快速准确提取,利用图像自身信息构建图像特征间的关联关系,得到细粒度特征的精细表征,提高图像的识别效果。
-
公开(公告)号:CN111970536B
公开(公告)日:2021-07-23
申请号:CN202010728311.5
申请日:2020-07-24
Applicant: 北京航空航天大学
IPC: H04N21/233 , H04N21/234 , H04N21/2343 , H04N21/845 , G10L25/24 , G06K9/00
Abstract: 本公开的实施例公开了一种基于音频生成视频方法和装置。该方法的一具体实施方式包括:获取舞蹈视频和音乐片段;确定音频的音频点,得到多个影像点;利用影像得到多个人体关键点集和影像片段;利用每个音频点和影像点确定训练集和舞蹈动作库;确定音频点的特征向量和影像片段的特征向量,得到训练后的特征提取器;利用训练后的特征提取器,提取音乐片段特征;确定音乐片段特征和人体关键点特征距离,得到影像片段并合成视频。该实施方式实现了根据音乐生成更生动流畅的舞蹈的方法,提高了用户体验,为用户的生活提供了便利。
-
公开(公告)号:CN112509036A
公开(公告)日:2021-03-16
申请号:CN202011387363.7
申请日:2020-12-01
Applicant: 北京航空航天大学
Abstract: 本发明提供一种位姿估计网络训练及定位方法、装置、设备、存储介质。方法包括:以真实样本图像为基准,对各真实样本图像中的样本对象的目标检测结果进行随机采样,获取各真实样本图像中的样本对象的至少一个随机采样样本图像;基于各真实样本图像中的样本对象的置信度图、在标准坐标系下的坐标图、在相机坐标系下的深度图,以及,样本对象的至少一个随机采样样本图像对位姿估计网络进行训练,得到训练好的位姿估计网络;在网络训练阶段,位姿估计网络用于基于输入的图像,估计所输入的对象的置信度图、所输入的对象在标准坐标系下的坐标图,以及,所输入的对象在相机坐标系下的深度图。本发明提出的方法提高了位姿估计网络的鲁棒性。
-
公开(公告)号:CN110991460A
公开(公告)日:2020-04-10
申请号:CN201910984822.0
申请日:2019-10-16
Applicant: 北京航空航天大学
Abstract: 本申请提供一种图像识别处理方法、装置、设备和存储介质,其中,该方法包括:获取待处理图像,其中,所述待处理图像包括至少一个类别的图像部件;对所述待处理图像进行多种尺度的特征提取处理,得到所述待处理图像的多种尺度的特征图;对所述多种尺度的特征图进行筛选处理,得到所述待处理图像的多种尺度的筛选特征图;对所述多种尺度的筛选特征图进行融合处理,得到所述待处理图像的融合特征图;对所述融合特征图进行识别处理,得到所述待处理图像的所述图像部件的识别结果。利用待处理图像的多种尺度的筛选特征图,得到待处理图像的图像部件的识别结果,识别精度高、准确性强。
-
公开(公告)号:CN110570490A
公开(公告)日:2019-12-13
申请号:CN201910840719.9
申请日:2019-09-06
Applicant: 北京航空航天大学
IPC: G06T11/00
Abstract: 本发明实施例提供的显著性图像生成方法及设备,选取孪生网络中目标域单个样本图像作为第一图像和孪生网络中源域图像数据集中的任一图像作为第二图像,并通过第一图像和第二图像训练第一特征提取模块、第二特征提取模块、第一显著性图生成模块、第二显著性图生成模块和判别模块,使得生成的第一显著性图和所述第二显著性图符合显著性预测标准,并将第一特征提取模块和第一显著性图生成模块组成显著性图像生成模型,通过将目标图像输入到所述显著性图像生成模型后,生成所述目标图像的显著性图像,提高了生成目标图像显著性图的效率。
-
-
-
-
-
-
-
-
-