-
公开(公告)号:CN107369131B
公开(公告)日:2019-11-26
申请号:CN201710539098.1
申请日:2017-07-04
Applicant: 华中科技大学
Abstract: 本发明公开了一种图像的显著性检测方法、装置、存储介质和处理器。该方法包括:对目标图像的深度图进行超像素分割,得到目标图像的多个超像素;对每个超像素进行聚类处理,得到每个超像素的第一数量的类,其中,第一数量的类中包含像素点数目最多的类的聚类中心为每个超像素的目标聚类中心;对每个超像素的目标聚类中心执行第一预设算法,得到目标图像的深度显著性图。通过本发明,提高了图像的显著性检测的准确性。
-
公开(公告)号:CN110335306A
公开(公告)日:2019-10-15
申请号:CN201910328525.0
申请日:2019-04-23
Applicant: 华中科技大学
IPC: G06T7/70
Abstract: 本发明实施例提供一种注视点预测方法及装置,其特征在于,包括:获取三维场景的三维空间信息、以及所述三维场景中移动对象的至少两个标注点的三维位置信息,所述标注点为所述移动对象的肢体上的预设点;根据所述至少两个标注点的三维位置信息,确定所述移动对象的三维视线向量,所述三维视线向量用于指示所述移动对象在三维场景中的视线的方向;根据所述三维视线向量和所述三维空间信息,确定所述移动对象的注视点。用于在三维场景中预测移动对象的注视点,进而提高机器人的可靠性。
-
公开(公告)号:CN103942756B
公开(公告)日:2017-03-29
申请号:CN201410092432.X
申请日:2014-03-13
Applicant: 华中科技大学
Abstract: 本发明涉及一种深度图后处理滤波的方法,包括以下步骤:(A1)输入同一场景的深度图和彩色图;(A2)对彩色图进行分块,并对每个块进行基于灰度图的边缘检测,进一步用基于彩色分量的边界对上述块中场景的灰度边缘进行修正,将得到的边界作为深度图中不同深度平面的边界;A3)将深度图分为与步骤(A2)中相同大小的块,并依据以上分割,以块为单位对深度图进行去噪滤波(;A4)重复步骤A1-A3,直至所有图像全部处理完毕;(A5)输出所述得到的深度图序列。本方法通过提取像素点在空域上和时域上的平滑性特征,并在读取和扫描的过程中进行深度图的计算。这样的方法,能有利于改进深度图时域抖动、空域不稳定、场景还原性低等缺陷的深度图。
-
公开(公告)号:CN106358006A
公开(公告)日:2017-01-25
申请号:CN201610030971.X
申请日:2016-01-15
Applicant: 华中科技大学
CPC classification number: H04N7/142 , H04N13/128 , H04N13/327
Abstract: 本发明公开了一种视频的校正方法及装置。其中,该方法包括:采集用户的第一图像以及第二图像,其中,第一图像为用户观看摄像设备区域时所采集的图像,第二图像为用户观看屏幕区域时所采集的图像;提取第一图像中的坐标系以及第二图像中的坐标系,并计算第一图像的坐标系至第二图像的坐标系的仿射矩阵;采用仿射矩阵对采集到的初始视频进行仿射变换处理,生成校正后的目标视频。本发明解决了在现有技术中,为实现聊天用户之间目光对视的视频校正方法复杂,且耗费计算资源大的技术问题。
-
公开(公告)号:CN103916656B
公开(公告)日:2016-01-20
申请号:CN201410092452.7
申请日:2014-03-13
Applicant: 华中科技大学 , 深圳深讯和科技有限公司
IPC: H04N13/00
Abstract: 本发明涉及一种利用深度图进行图像绘制方法,其特征在于包括以下步骤:(1)、输入彩色图像,以及与之对应的深度图像;(2)、输入新视点的绘制参数;(3)、利用所述的彩色图和深度图进行新视点的绘制,得到彩色图像I;(4)、对所述彩色图像I进行后处理,得到图像II;(5)、输出所述得到的图像II。本发明通过将图像绘制与填补空洞的过程结合起来,在图像绘制的过程中直接解决了空洞的填补问题。这种方法即可以降低算法的时间复杂度,又可以提高图像绘制的质量。
-
公开(公告)号:CN103945211A
公开(公告)日:2014-07-23
申请号:CN201410092424.5
申请日:2014-03-13
Applicant: 华中科技大学 , 深圳深讯和科技有限公司
IPC: H04N13/02
Abstract: 本发明涉及一种通过单视角彩色图像序列生成深度图序列的方法,包括以下步骤:(A1)输入彩色图像序列;(A2)按时域顺序读取彩色图像序列中的一帧图像,并将该帧彩色图像转换为灰度图像;(A3)对所述灰度图像按照Zig-Zag扫描方式进行基于联合时域空域的深度计算,得到深度图序列;(A4)重复步骤A2~A3,直至所有序列中的所有彩色图像全部处理完毕;(A5)输出所述得到的深度图序列。本发明具有以下优点:生成深度图序列的时域平稳性好;生成深度图序列的空域错误减少。
-
公开(公告)号:CN112862871B
公开(公告)日:2024-12-31
申请号:CN202110074813.5
申请日:2021-01-20
Applicant: 华中科技大学
IPC: G06T7/33 , G06T5/50 , G06T3/4023 , G06N3/084 , G06V10/75
Abstract: 本申请实施例提供的图像融合方法及装置,该方法包括:获取多张待融合图像,其中,多张待融合图像为针对同一场景的多个视角和/或多个光谱的图像。对多张待融合图像进行粗配准处理,得到粗配准后的多张待融合图像。将粗配准后的多张待融合图像输入至预设模型中,以使得预设模型输出融合后的目标图像。其中,预设模型为用于对图像进行融合的模型,预设模型是根据多组样本进行学习得到的,每组样本中包括样本待融合图像和样本目标图像,多组样本中的样本待融合图像为针对至少一个场景的多个视角和/或多个光谱的图像。通过对多张待融合图像先后进行粗配准及精细配准处理,实现对任意场景下的多视角多光谱图像进行图像融合的技术效果。
-
公开(公告)号:CN118967714A
公开(公告)日:2024-11-15
申请号:CN202411024514.0
申请日:2024-07-29
Applicant: 华中科技大学
IPC: G06T7/11 , G06T7/00 , G06V10/26 , G06V10/74 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了基于调和注意力的医学图像分割模型建立方法及医学图像分割方法,属于三维医学图像分割领域,模型包括:模态融合模块,利用三维CNN同时提取不同模态的空间和深度特征信息,并基于输入级融合策略进行模态融合;下采样模块,利用U‑Net网络的卷积操作对图像进行下采样、压缩空间和深度信息的同时提取语义信息;Transformer模块,利用交变位置编码获取全局和远程的信息依赖关系,并给相应的语义信息提供位置编码,从而强化空间信息;以及上采样模块,利用反卷积操作对图像进行上采样,并利用调和注意力层获取全局特征并稳定特征的分布情况。本发明能够调和三维医学图像不同平面间的特征分布情况,提高三维医学图像的分割精度。
-
公开(公告)号:CN117670670A
公开(公告)日:2024-03-08
申请号:CN202311626413.6
申请日:2023-11-29
Applicant: 华中科技大学
IPC: G06T3/4038 , G06T7/33 , G06V10/74
Abstract: 本发明公开了一种跨尺度无人机图像拼接方法、系统及存储介质,属于航空图像处理技术领域,方法包括:S1、采集一张目标场景的全景图及对应的多张细节图;S2、提取全景图和每张细节图的特征点坐标,以构建每张细节图的特征点与全景图特征点之间的特征对匹配关系;S3、根据特征对匹配关系计算每张细节图在全景图坐标系下的几何变换矩阵;根据几何变换矩阵,以全景图为参考对象,将每张细节图中的场景内容映射到全景图坐标系下,得到第一次映射后的细节图;S4、将第一次映射后的细节图拼接,得到拼接后的航空图像;本发明能够提升无人机图像拼接时的图像利用率;还包括细粒度的映射匹配,与粗粒度匹配配合,提升拼接图像的质量。
-
公开(公告)号:CN116437205B
公开(公告)日:2023-08-11
申请号:CN202310647211.3
申请日:2023-06-02
Applicant: 华中科技大学
Abstract: 本发明公开了一种多视点多焦距成像的景深拓展方法和系统,属于景深拓展技术领域。多视点多焦距图像来自于不同视点,相较于传统的单视点焦点堆栈图像具有显著的区别,本发明方法克服了采用多视点多焦距图像进行拓展景深所面临的诸多挑战,实现了多视点中的每个视点聚焦在不同深度,在单次曝光下,来自于不同视点的焦点堆栈图像能被同时捕获,从而可在所有视点同时曝光下捕获用于拓展场景景深的基本元素,反复拍摄可实时记录动态场景的信息,从而为拓展动态场景的景深提供了可能。
-
-
-
-
-
-
-
-
-