-
公开(公告)号:CN111915483B
公开(公告)日:2024-03-19
申请号:CN202010595138.6
申请日:2020-06-24
Applicant: 北京迈格威科技有限公司
IPC: G06T3/4038
Abstract: 本申请涉及一种图像拼接方法、装置、计算机设备和存储介质。所述方法包括:获取不同视角采集的各待处理图像,将各待处理图像转换到统一坐标空间,获得各待处理图像对应的转换后图像;确定各转换后图像的重叠区域;基于各转换后图像在重叠区域的像素点,获得空域光流信息,空域光流信息用于表征重叠区域中各像素点的偏移程度;根据空域光流信息,对各转换后图像进行拼接。采用本方法能够提高图像拼接质量。
-
公开(公告)号:CN111444803B
公开(公告)日:2023-07-11
申请号:CN202010193402.3
申请日:2020-03-18
Applicant: 北京迈格威科技有限公司
IPC: G06V20/40 , G06V40/20 , G06V10/80 , G06V10/764 , G06V10/774
Abstract: 本发明公开一种图像处理方法、装置、电子设备及存储介质,该方法包括:接收目标视频片段;将所述目标视频片段输入目标网络模型进行处理,得到处理结果;根据所述处理结果,确定所述目标视频片段中是否存在人物跌倒画面。可见,实施上述方法,可以通过预先训练得到的目标网络模型,直接对待检测视频序列进行处理,即可得到待检测视频序列中是否有人物跌倒的检测结果,而无需经过现有技术中那样的目标检测网络,缩短了pipeline,提高了检测效率。
-
公开(公告)号:CN111967314B
公开(公告)日:2024-06-11
申请号:CN202010658452.4
申请日:2020-07-09
Applicant: 北京迈格威科技有限公司
IPC: G06V40/10 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本申请实施例提供了行人重识别方法、装置,该方法包括:获取待重识别的行人的可见光行人图像和红外光行人图像;将获取的待重识别的行人的可见光行人图像和该红外光行人图像输入到多模态融合识别网络,得到该行人的行人重识别结果,多模态融合识别网络被配置为:将从该可见光行人图像提取的该行人的可见光行人特征和从该红外光行人图像提取的该行人的红外光行人特征进行融合,得到该行人的双光融合行人特征;基于该行人的多模态行人特征和预设特征底库中的多个行人特征,对该行人进行行人重识别,得到该行人的行人重识别结果。全天候对待重识别的行人进行较为准确的行人重识别并且提升行人重识别结果的准确性。
-
公开(公告)号:CN117392400A
公开(公告)日:2024-01-12
申请号:CN202311255571.5
申请日:2023-09-26
Applicant: 北京迈格威科技有限公司
Abstract: 本申请提供了一种目标对象检测方法、电子设备及存储介质,包括:获取从不同视角所采集的目标对象所在3D空间的多个图像;对多个图像进行特征提取,得到不同视角下的多个2D图像特征;针对每个2D图像特征,将2D图像特征变换到3D空间,得到N个变换3D特征,以及,对2D图像特征进行处理,得到N个3D体素在3D空间中的深度分布信息;将变换3D特征和深度分布信息进行融合,得到3D空间的3D占用体素信息;基于3D占用体素信息对3D空间进行目标对象检测,得到目标对象的检测结果。基于该方法,不需要3D信号输入,有效地利用不同视角的多个图像中隐含的深度信息来生成高精度的3D占用体素信息,实现目标对象检测。
-
公开(公告)号:CN116485943A
公开(公告)日:2023-07-25
申请号:CN202310286679.4
申请日:2023-03-22
Applicant: 北京迈格威科技有限公司
IPC: G06T11/60 , G06V10/75 , G06F16/583
Abstract: 本申请实施例提供了一种图像生成方法、电子设备及存储介质,该方法包括:生成与提示文本对应的至少一张图像;生成每张图像的初始文字说明;提取提示文本中的实体词,并确定每个实体词所表征的物体在每张图像中的目标检测结果;根据每张图像的目标检测结果和初始文字说明,生成每张图像的目标文字说明;针对每张图像,将提示文本与图像的目标文字说明进行匹配,得到匹配结果;在不存在满足目标条件的匹配结果时,根据目标文字说明对提示文本进行更新,并基于更新后的提示文本,迭代执行上述各步骤,直至存在满足所述目标条件的匹配结果;从匹配结果满足所述目标条件的至少一张图像中确定目标图像。本申请实施例可以提高图像的生成效率。
-
公开(公告)号:CN115984093A
公开(公告)日:2023-04-18
申请号:CN202211397790.2
申请日:2022-11-09
Applicant: 北京迈格威科技有限公司
IPC: G06T3/00 , G06T7/50 , G06N3/0464 , G06N3/088
Abstract: 本申请实施例提供一种基于红外图像的深度估计方法、电子设备以及存储介质。该方法包括:获取待处理红外图像;将待处理红外图像输入目标深度估计模型,获得对应的第一深度估计结果,第一深度估计结果是与待处理红外图像中的每个像素的深度相关的信息;基于第一深度估计结果,确定待处理红外图像所对应的第一深度信息;其中,目标深度估计模型利用合成红外训练数据训练获得,合成红外训练数据包括合成红外图像和标注深度信息,合成红外图像基于标注RGB图像生成,标注深度信息是标注RGB图像所对应的深度信息。目标深度估计模型由于利用合成红外图像训练获得,因此可用的训练数据较为充足,获得的目标深度估计模型性能也较为鲁棒。
-
公开(公告)号:CN113902657A
公开(公告)日:2022-01-07
申请号:CN202110990427.0
申请日:2021-08-26
Applicant: 北京旷视科技有限公司 , 北京迈格威科技有限公司
Abstract: 本发明提供了一种图像拼接方法、装置和电子设备,获取待拼接的第一图像和第二图像;确定第一图像和第二图像的初始拼接图像;利用第一神经网络模型对初始拼接图像中的目标重叠区域进行融合处理,得到目标重叠区域所对应的融合重叠区域;基于融合重叠区域和初始拼接图像,确定第一图像和第二图像所对应的目标拼接图像。该方式中,在确定第一图像和第二图像的初始拼接图像后,采用第一神经网络模型对初始拼接图像中的目标重叠区域进行融合处理,得到对应的融合重叠区域,不需要基于CPU对初始拼接图像中的每个像素进行融合相关计算,节省了对初始拼接图像中所有像素进行融合计算的时间,提高了融合处理效率,进而提高了图像拼接的处理效率。
-
公开(公告)号:CN111967314A
公开(公告)日:2020-11-20
申请号:CN202010658452.4
申请日:2020-07-09
Applicant: 北京迈格威科技有限公司
Abstract: 本申请实施例提供了行人重识别方法、装置,该方法包括:获取待重识别的行人的可见光行人图像和红外光行人图像;将获取的待重识别的行人的可见光行人图像和该红外光行人图像输入到多模态融合识别网络,得到该行人的行人重识别结果,多模态融合识别网络被配置为:将从该可见光行人图像提取的该行人的可见光行人特征和从该红外光行人图像提取的该行人的红外光行人特征进行融合,得到该行人的双光融合行人特征;基于该行人的多模态行人特征和预设特征底库中的多个行人特征,对该行人进行行人重识别,得到该行人的行人重识别结果。全天候对待重识别的行人进行较为准确的行人重识别并且提升行人重识别结果的准确性。
-
公开(公告)号:CN112862685B
公开(公告)日:2024-02-23
申请号:CN202110186621.3
申请日:2021-02-09
Applicant: 北京迈格威科技有限公司
IPC: G06T3/4038 , G06T5/50 , G06T7/11 , G06T7/13
Abstract: 本发明提供了一种图像拼接的处理方法、装置和电子系统,包括:获取待拼接的第一图像和第二图像的重叠区域分别对应的第一重叠图像和第二重叠图像;确定第一重叠图像和第二重叠图像对应的融合能量图;确定融合能量图的第一图边至第二图边对应的最小能量路径;基于最小能量路径确定第一重叠图像对应的第一掩模和第二重叠图像对应的第二掩模;基于第一掩模和第二掩模拼接第一图像和第二图像。本发明在一定程度上优化了拼缝经过的区域,提升了图像的拼接效果。
-
公开(公告)号:CN113793382A
公开(公告)日:2021-12-14
申请号:CN202110893253.6
申请日:2021-08-04
Applicant: 北京旷视科技有限公司 , 北京迈格威科技有限公司
Abstract: 本发明提供了一种视频图像的拼缝搜索方法、视频图像的拼接方法和装置,获取第一视频中每帧视频图像的能量图;针对第一帧视频图像,基于其能量图确定其拼缝搜索结果;针对其余每帧视频图像,基于前一帧视频图像的拼缝搜索结果,确定拼缝搜索区域范围;在该范围内,基于当前视频图像的能量图确定其拼缝搜索结果。该方式基于视频图像的能量图确定拼缝搜索结果,并且,对于除第一帧以外的视频图像,先基于前一帧视频图像的拼缝搜索结果确定拼缝搜索区域范围,再在该拼缝搜索区域范围内确定拼缝搜索结果,这种约束拼缝搜索区域范围的方式可以减少前后帧视频图像的拼缝区域差异,缓解拼接后的视频在播放过程中的抖动问题,进而提升全景视频的拼接效果。
-
-
-
-
-
-
-
-
-