一种基于多幅未标定图像的三维点云重建方法

    公开(公告)号:CN106600686A

    公开(公告)日:2017-04-26

    申请号:CN201611111611.9

    申请日:2016-12-06

    Abstract: 本发明公开了一种基于多幅未标定图像的三维点云重建方法,获取物体在不同角度拍摄的图像序列作为输入集合;通过特征提取和匹配得到图像的特征匹配点对,进行稠密扩散处理;选择候选图像的特征点作为种子点向其周围邻域进行匹配扩散并过滤,获得稠密匹配点对;对相机进行标定,结合匹配点对得到其内外参数;根据相机参数及匹配点对恢复出三维模型点;进行重建,选取种子模型点生成初始patch,并在其网格邻域内扩散得到稠密的patch;根据约束条件过滤误差patch,获得精确的稠密三维点云模型。本发明可以快速获得高精度的稠密点云模型,加快模型的生成速度,增加了匹配的稠密性的准确性,增加了三维点云的稠密性和准确性。

    一种基于二元线性回归方程的动态调频方法

    公开(公告)号:CN105808355A

    公开(公告)日:2016-07-27

    申请号:CN201610139773.7

    申请日:2016-03-10

    Abstract: 本发明公开了一种基于二元线性回归方程的动态调频方法,选择二元线性回归方程作为系统负载的预测算法,并应用到Linux操作系统中的CPUFreq模块中;以系统的CPU利用率和系统可执行进程数信息,作为二元线性回归方程的两个自变量,同时将已获得的系统负载信息作为因变量,求解拟合的二元线性回归方程。根据方程,通过自变量对因变量进行预测。本发明实现了对系统负载信息地准确预测,以便根据负载信息及时地设置CPU的运行频率。本发明提高了系统频率设定的响应速度,同时省去系统负载达到稳定状态的过渡时间;同时,准确设置CPU的运行频率,可以避免系统出现性能不足和性能过剩的问题,以达到充分发挥系统性能和降低系统功耗的目的。

    一种基于CUPS架构的打印管控方法

    公开(公告)号:CN105183403A

    公开(公告)日:2015-12-23

    申请号:CN201510603245.8

    申请日:2015-09-21

    Abstract: 本发明公开了一种基于CUPS架构的打印管控方法,其包括的步骤为:1.设计并安装基于CUPS架构的虚拟打印机驱动。2.通过CUPS控制对虚拟打印机和物理打印机的访问。3.配置不同用户可以使用的物理打印机。4.监控用户打印操作。5.用户选择物理打印机。6.生成打印记录。7.存储打印内容并嵌入用户信息。8.通过物理打印机输出打印内容。9.完善打印记录。本发明适用于所有使用CUPS架构的操作系统,包括Unix系统、Linux操作系统、国产操作系统以及Mac系统。通过对物理打印机的访问控制实现了打印管理并通过对打印内容的处理和存储为后续的文档来源追踪和审计提供基础数据。

    基于运动检测的手机拍摄图像修复方法

    公开(公告)号:CN102831580B

    公开(公告)日:2015-04-08

    申请号:CN201210245614.7

    申请日:2012-07-17

    Abstract: 本发明公开了一种基于运动检测的手机拍摄图像修复方法,主要解决现有技术在纹理丰富、结构复杂以及有明显轮廓的场景下图像修复不准确的问题。其实现步骤是,首先利用快门帧拍摄前短时间内的拍摄准备帧,进行基于混合高斯背景模型的背景模型训练,得到接近真实场景的背景模型;然后由运动检测模块进行轮廓提取、误检纠正和运动目标序列提取,获得可供用户擦除的运动目标序列;最后在用户选择的目标修复范围内,用背景模型帧的像素值替换目标中相应位置的像素值,从而完成图像信息修复,得到不包含运动障碍物的快门帧图像。本发明能够准确地修复上述场景下图像中的目标擦除区域,可用于智能手机的图像拍摄。

    一种基于对象内容的双层监控视频摘要生成方法

    公开(公告)号:CN103345764A

    公开(公告)日:2013-10-09

    申请号:CN201310294441.2

    申请日:2013-07-12

    Abstract: 一种基于对象内容的双层监控视频摘要生成方法,其包括如下步骤:1)读入原始视频帧后将原始视频分段为静态视频段、目标密集视频段和摘要基本段落;2)得到的视频基本段与视频密集段分别进行基于多特征融合的运动目标检测与跟踪,来获得该视频段内的目标的轨迹序列集合;3)利用融合记分板方法完成对于摘要基本段落的目标轨迹序列集合与最佳背景模型之间的轨迹融合;4)通过轨迹融合后得到摘要结果帧序列为该段摘要基本段的摘要视频,按照步骤1)分割顺序将这些视频段落依次合并,输出为摘要视频;5)根据摘要视频的轨迹序列,生成可供用户搜索的语义摘要信息。

    基于Transformer的多模态情感分析方法

    公开(公告)号:CN114973062B

    公开(公告)日:2024-08-20

    申请号:CN202210442390.2

    申请日:2022-04-25

    Abstract: 本发明公开了一种基于Transformer的多模态情感分析方法,其实现步骤为:获取训练样本集、验证样本集和测试样本集;构建多基于Transformer的多模态情感分析模型;对多模态情感分析模型进行迭代训练;获得多模态情感分析结果。本发明采用Bert和ViT预训练模型对文本和视觉模态的数据进行特征提取,基于t的多头注意力模块使视觉和音频数据更专注与文本相关的信息,跨模态Transformer模块和单模态标签预测模块使融合特征表示具有统一性和差异性信息,避免了现有技术中因为忽略不同模态对情感分析贡献度不同、单模态缺少长期依赖,导致情感分析准确度较低的技术问题,有效地提高了多模态情感分析的准确度。

    基于二次重构的多语言音色转换方法

    公开(公告)号:CN117351942A

    公开(公告)日:2024-01-05

    申请号:CN202311319177.3

    申请日:2023-10-12

    Abstract: 本发明公开了一种基于二次重构的多语言音色转换方法,本发明构建由音色提取模块,文本预处理模块,梅尔频谱图生成模块组成音色转换学习网络;语音识别模型将音频识别出的文本替换成识别成音素,在完成音色转换任务的同时,提升了语音识别的准确率。音频两次重构生成新的梅尔频谱图,生成的过程不仅仅是进行了音色转换,而且实现了不同语种之间的音色转换。模型能够感知到不同语言之间的说话的差异性,并且能够在转换的过程中减缓语言差异性带来的影响,解决了不同语种间音色转换存在的口音问题,使得提取的文本特征更加精确,保证了音色转换后发音的准确性。

Patent Agency Ranking