一种基于卷积神经网络CNN和语义分割的行人检测方法

    公开(公告)号:CN108399361A

    公开(公告)日:2018-08-14

    申请号:CN201810063724.9

    申请日:2018-01-23

    Inventor: 尚晓航 霍智勇

    Abstract: 本发明公开了一种基于卷积神经网络CNN和语义分割的行人检测方法,具体如下:获取训练图像数据;对训练图像数据做预处理后输入卷积神经网络CNN训练网络参数得到网络模型;将需要检测行人位置的图像输入基于梯度方向直方图和颜色自相似特征的行人检测器得到行人候选区域,和训练图像数据做相同的预处理操作,将预处理后的行人候选区域输入得到的网络模型做分类得到行人初步位置及位置得分;同时,将需要检测行人位置的图像输入语义分割网络得到行人语义遮罩位置;根据行人语义遮罩位置修正行人初步位置的位置得分,得到最终行人位置和位置得分。本发明结合卷积神经网络和语义分割的优势,充分利用现有数据,具有鲁棒性较佳,检测准确率高的优点。

    一种基于RGB-D图像的手语字母识别方法

    公开(公告)号:CN104268507A

    公开(公告)日:2015-01-07

    申请号:CN201410469195.4

    申请日:2014-09-15

    CPC classification number: G06K9/00355 G06K9/36 G06K9/6269

    Abstract: 本发明公开了一种基于RGB-D图像的手语字母识别方法,属于计算机视觉的行为识别技术领域。该方法根据不同的手语字母类型具有不同的手型纹理信息,对RGB-D摄像机获取的RGB-D图像视频帧提取梯度方向直方图特征和超法向量特征,采用主成分分析与线性判别分析相结合的方法进行特征属性优化处理,获取具有显著性的特征属性,并进一步对特征进行分组词典稀疏表示;采用对比数据挖掘技术,获取各个手语字母类别中具有代表性的模板实例;最后采用基于贪婪思想的分层判决策略,先采用非参数的k最近邻分类器将易分的手语字母类别快速分类,对于难以区分的手语字母采用训练的基于模板的支持向量机模型进行判决。相比现有技术,本发明的识别准确度及识别效率均较高。

    一种基于相机位姿光场编码的新视点图像合成方法

    公开(公告)号:CN119273813A

    公开(公告)日:2025-01-07

    申请号:CN202411823713.8

    申请日:2024-12-12

    Inventor: 霍智勇 高璐杰

    Abstract: 本发明公开了一种基于相机位姿光场编码的新视点图像合成方法,包括:设计了一种两阶段训练的场景新视点合成模型;确定了一种位姿光场编码方案,将视点位姿编码为目标分辨率的位姿光场;提供了一种有效的训练策略;有益效果是:本发明基于Transformer模块的优势,训练了一个具备大量先验的场景潜在表示编码模型与一个场景新视点合成模块。再通过引入一种位姿光场编码,解决了视点控制不精确的问题,并优化了传统的基于像素光线渲染的生成速度。本发明在训练中引入了一个目标位姿的随机加噪过程,有效避免了第二阶段训练中对特定目标位姿的过拟合现象,使得生成模型的泛化性与生成质量都得到了较大提升。

    一种基于人脑fMRI重建视觉刺激图像的方法及系统

    公开(公告)号:CN118135052B

    公开(公告)日:2024-08-06

    申请号:CN202410559435.3

    申请日:2024-05-08

    Abstract: 本发明涉及视觉重建技术领域,公开了基于人脑fMRI重建视觉刺激图像的方法及系统,方法包括获取fMRI数据集,从fMRI数据集中提取fMRI体素数据进行patch遮罩,对fMRI体素数据的空间冗余进行稀疏编码处理,得到体素小块;体素小块通过一维卷积层转化成嵌入token,并随机遮罩至编码器中,在编码器的末端添加掩码符号、位置嵌入、patch编码,线性投影转化为解码器的嵌入空间,得到fMRI的潜在特征;获取fMRI对应的图像和文本数据集,在fMRI图像和文本数据集中利用训练好的CLIP模型提取CLIP的视觉和文本特征,对CLIP的视觉特征进行解码,得到初步图像;通过自编码器进行编码,利用fMRI的潜在特征和CLIP的文本特征通过线性插值混合,得到像素重建,实现了结构清晰的初步重建图像的快速生成。

    一种基于人脑fMRI重建视觉刺激图像的方法及系统

    公开(公告)号:CN118135052A

    公开(公告)日:2024-06-04

    申请号:CN202410559435.3

    申请日:2024-05-08

    Abstract: 本发明涉及视觉重建技术领域,公开了基于人脑fMRI重建视觉刺激图像的方法及系统,方法包括获取fMRI数据集,从fMRI数据集中提取fMRI体素数据进行patch遮罩,对fMRI体素数据的空间冗余进行稀疏编码处理,得到体素小块;体素小块通过一维卷积层转化成嵌入token,并随机遮罩至编码器中,在编码器的末端添加掩码符号、位置嵌入、patch编码,线性投影转化为解码器的嵌入空间,得到fMRI的潜在特征;获取fMRI对应的图像和文本数据集,在fMRI图像和文本数据集中利用训练好的CLIP模型提取CLIP的视觉和文本特征,对CLIP的视觉特征进行解码,得到初步图像;通过自编码器进行编码,利用fMRI的潜在特征和CLIP的文本特征通过线性插值混合,得到像素重建,实现了结构清晰的初步重建图像的快速生成。

    一种基于隐式神经场景表示进行虚拟视点图像合成的方法

    公开(公告)号:CN114666564B

    公开(公告)日:2024-03-01

    申请号:CN202210288938.2

    申请日:2022-03-23

    Inventor: 霍智勇 郭权

    Abstract: 本发明公开了一种在多视图立体跨视图损失的基础上利用隐式神经场景表示进行虚拟视点图像合成的方法,适用于计算机视觉领域。本方法包括:获取需产生虚拟视点的图像数据集;对训练图像数据集进行预处理,在预处理阶段基于特征匹配算法Sift对输入的训练图像数据集进行特征点提取和匹配;将获得的训练图像数据和所提取特征点信息经处理后输入多层感知器网络中进行训练;将测试图像数据输入训练好的多层感知器网络,后通过体渲染得到测试的渲染图像;基于训练好的多层感知器网络生成虚拟视点图像。由此通过减少神经网络在训练拟合场景表示时的数据量,及结合图像深度信息进行集中(56)对比文件常远 等.基于神经辐射场的视点合成算法综述《.图学学报》.2021,第42卷(第3期),全文.江雷.基于深度信息虚拟视点生成.现代计算机(专业版).2018,(03),全文.

    一种基于文本条件扩散模型的语义图像编辑方法

    公开(公告)号:CN117541684A

    公开(公告)日:2024-02-09

    申请号:CN202410024642.9

    申请日:2024-01-08

    Abstract: 本发明属于计算机视觉的领域,公开了一种基于文本条件扩散模型的语义图像编辑方法,该方法首先利用不同文本在文本条件扩散模型下对同一初始图像加噪会产生不同的噪声估计,通过差异计算得出遮罩,用去噪扩散隐式模型DDIM编码函数对输入图像进行加噪,通过将遮罩外的像素值替换为初始图像DDIM加噪得到图像像素值来指导扩散模型,然后解码自然地映射回原始像素。该方法通过U‑net预训练模型只进行一次噪声预测即提高遮罩的生成速度,根据噪声预测差值生成遮罩对图像进行局部编辑,降低在不需要编辑的区域中修改输入的风险,提高合成图像的质量。

    单目图像深度估计方法
    38.
    发明授权

    公开(公告)号:CN112288788B

    公开(公告)日:2023-04-28

    申请号:CN202011084248.2

    申请日:2020-10-12

    Inventor: 霍智勇 乔璐

    Abstract: 一种单目图像深度估计方法,所述方法包括:获取训练图像;将所获取的训练图像输入预先构建的深度预测网络中进行训练,得到对应的预测深度图;将所得到的预测深度图与对应的GT深度图采用排序损失、多尺度结构相似损失和多尺度尺度不变梯度匹配损失的联合损失函数进行联合损失计算,得到对应的单目深度估计图。上述的方案,可以提高单目图像深度估计的准确性。

    一种基于节点影响力度量的文学作品人物关系可视化分析方法

    公开(公告)号:CN113282744B

    公开(公告)日:2022-11-08

    申请号:CN202110629883.2

    申请日:2021-06-07

    Abstract: 本发明公开了一种基于节点影响力度量的文学作品人物关系可视化分析方法。属于信息处理技术领域,操作步骤:对小说文本数据进行预处理;利用人物节点信息计算人物相互作用,创建交互字典;构建社交网络图与中心性度量表;提出节点影响力评价标准,计算节点影响力;依据所述影响力评价标准进行文学分析。本发明利用计算机对大量的文本数据进行处理,节约大量人力资源;并且,不仅借助定量分析法中的数学内容作为研究的基础,对研究内容进行量化,提高定性判断的准确性;还借助数据的形式描述研究过程,分析的过程和结果可以检验;故无论研究者自身才识、审美等水平如何,对同一数据采用同样的实验方法都会得出相同的结果。

Patent Agency Ranking