-
公开(公告)号:CN106600686A
公开(公告)日:2017-04-26
申请号:CN201611111611.9
申请日:2016-12-06
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于多幅未标定图像的三维点云重建方法,获取物体在不同角度拍摄的图像序列作为输入集合;通过特征提取和匹配得到图像的特征匹配点对,进行稠密扩散处理;选择候选图像的特征点作为种子点向其周围邻域进行匹配扩散并过滤,获得稠密匹配点对;对相机进行标定,结合匹配点对得到其内外参数;根据相机参数及匹配点对恢复出三维模型点;进行重建,选取种子模型点生成初始patch,并在其网格邻域内扩散得到稠密的patch;根据约束条件过滤误差patch,获得精确的稠密三维点云模型。本发明可以快速获得高精度的稠密点云模型,加快模型的生成速度,增加了匹配的稠密性的准确性,增加了三维点云的稠密性和准确性。
-
公开(公告)号:CN105808355A
公开(公告)日:2016-07-27
申请号:CN201610139773.7
申请日:2016-03-10
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于二元线性回归方程的动态调频方法,选择二元线性回归方程作为系统负载的预测算法,并应用到Linux操作系统中的CPUFreq模块中;以系统的CPU利用率和系统可执行进程数信息,作为二元线性回归方程的两个自变量,同时将已获得的系统负载信息作为因变量,求解拟合的二元线性回归方程。根据方程,通过自变量对因变量进行预测。本发明实现了对系统负载信息地准确预测,以便根据负载信息及时地设置CPU的运行频率。本发明提高了系统频率设定的响应速度,同时省去系统负载达到稳定状态的过渡时间;同时,准确设置CPU的运行频率,可以避免系统出现性能不足和性能过剩的问题,以达到充分发挥系统性能和降低系统功耗的目的。
-
公开(公告)号:CN105183403A
公开(公告)日:2015-12-23
申请号:CN201510603245.8
申请日:2015-09-21
Applicant: 西安电子科技大学
IPC: G06F3/12
Abstract: 本发明公开了一种基于CUPS架构的打印管控方法,其包括的步骤为:1.设计并安装基于CUPS架构的虚拟打印机驱动。2.通过CUPS控制对虚拟打印机和物理打印机的访问。3.配置不同用户可以使用的物理打印机。4.监控用户打印操作。5.用户选择物理打印机。6.生成打印记录。7.存储打印内容并嵌入用户信息。8.通过物理打印机输出打印内容。9.完善打印记录。本发明适用于所有使用CUPS架构的操作系统,包括Unix系统、Linux操作系统、国产操作系统以及Mac系统。通过对物理打印机的访问控制实现了打印管理并通过对打印内容的处理和存储为后续的文档来源追踪和审计提供基础数据。
-
公开(公告)号:CN102831580B
公开(公告)日:2015-04-08
申请号:CN201210245614.7
申请日:2012-07-17
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于运动检测的手机拍摄图像修复方法,主要解决现有技术在纹理丰富、结构复杂以及有明显轮廓的场景下图像修复不准确的问题。其实现步骤是,首先利用快门帧拍摄前短时间内的拍摄准备帧,进行基于混合高斯背景模型的背景模型训练,得到接近真实场景的背景模型;然后由运动检测模块进行轮廓提取、误检纠正和运动目标序列提取,获得可供用户擦除的运动目标序列;最后在用户选择的目标修复范围内,用背景模型帧的像素值替换目标中相应位置的像素值,从而完成图像信息修复,得到不包含运动障碍物的快门帧图像。本发明能够准确地修复上述场景下图像中的目标擦除区域,可用于智能手机的图像拍摄。
-
公开(公告)号:CN103345764A
公开(公告)日:2013-10-09
申请号:CN201310294441.2
申请日:2013-07-12
Applicant: 西安电子科技大学
Abstract: 一种基于对象内容的双层监控视频摘要生成方法,其包括如下步骤:1)读入原始视频帧后将原始视频分段为静态视频段、目标密集视频段和摘要基本段落;2)得到的视频基本段与视频密集段分别进行基于多特征融合的运动目标检测与跟踪,来获得该视频段内的目标的轨迹序列集合;3)利用融合记分板方法完成对于摘要基本段落的目标轨迹序列集合与最佳背景模型之间的轨迹融合;4)通过轨迹融合后得到摘要结果帧序列为该段摘要基本段的摘要视频,按照步骤1)分割顺序将这些视频段落依次合并,输出为摘要视频;5)根据摘要视频的轨迹序列,生成可供用户搜索的语义摘要信息。
-
公开(公告)号:CN114943921B
公开(公告)日:2025-04-08
申请号:CN202210610447.5
申请日:2022-05-31
Applicant: 西安电子科技大学
IPC: G06V20/40 , G06V10/77 , G06V10/774 , G06V10/80 , G06V10/82 , G06F40/30 , G06N3/0442 , G06N3/0455 , G06N3/0464 , G06N3/084
Abstract: 本发明提出了一种融合多粒度视频语义信息的视频文本描述方法,主要解决现有技术中视频语义信息不全、语义信息融合不充分和当多种语义信息存在时的信息冗余的问题。其实现方案为:1)建立数据集,并利用三种神经网络预训练模型分别提取其视频样本三层级的空间时序特征;2)搭建融合多粒度视频语义信息的视频文本描述网络,并构建其损失函数;3)对融合多粒度视频语义信息的视频文本描述网络进行训练;4)将待描述视频输入到训练好的网络中生成视频的文本描述。本发明增加了提取的视频特征种类,充分融合特征,选择合适融合特征生成文本,不仅能有效表示视频信息,而且减少了信息冗余程度,可用于生成准确性高且流畅的描述视频内容文本。
-
公开(公告)号:CN114973062B
公开(公告)日:2024-08-20
申请号:CN202210442390.2
申请日:2022-04-25
Applicant: 西安电子科技大学
IPC: G06V20/40 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/0442 , G06N3/084
Abstract: 本发明公开了一种基于Transformer的多模态情感分析方法,其实现步骤为:获取训练样本集、验证样本集和测试样本集;构建多基于Transformer的多模态情感分析模型;对多模态情感分析模型进行迭代训练;获得多模态情感分析结果。本发明采用Bert和ViT预训练模型对文本和视觉模态的数据进行特征提取,基于t的多头注意力模块使视觉和音频数据更专注与文本相关的信息,跨模态Transformer模块和单模态标签预测模块使融合特征表示具有统一性和差异性信息,避免了现有技术中因为忽略不同模态对情感分析贡献度不同、单模态缺少长期依赖,导致情感分析准确度较低的技术问题,有效地提高了多模态情感分析的准确度。
-
公开(公告)号:CN115033670B
公开(公告)日:2024-08-02
申请号:CN202210629686.5
申请日:2022-06-02
Applicant: 西安电子科技大学
IPC: G06F16/332 , G06F16/38 , G06F16/532 , G06F16/583 , G06F18/25 , G06V10/42 , G06V10/44 , G06V10/74 , G06V10/80 , G06V10/82 , G06N3/0442 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种多粒度特征融合的跨模态图文检索方法,解决了现有跨模态检索方法不能全面提取模态数据的信息,且不能在跨模态数据间进行细粒度信息交互的技术问题,实现包括:建立图文检索数据集;图文特征提取;构建基于注意力的细粒度跨模态交互网络和多粒度特征融合网络;使用联合损失函数对交互网络和融合网络进行训练,完成图文的双向检索。本发明使用预训练模型提取特征,用特征融合网络学习更强大的特征表示,使得本发明构建的跨模态检索模型在双路编码结构下具有较高的检索效率和精度,本发明检索精度和效率高,应用于人工智能领域,如信息推荐和信息检索等。
-
公开(公告)号:CN117851629A
公开(公告)日:2024-04-09
申请号:CN202410022190.0
申请日:2024-01-05
Applicant: 西安电子科技大学
IPC: G06F16/58 , G06F16/583 , G06V20/40 , G06V10/80 , G06V10/82 , G06V10/40 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于特征表示增强的视频时刻检索方法,其步骤为:生成训练集;构建视频时刻检索网络;训练视频时刻检索网络;检索视频时刻。本发明构建了基于特征表示增强的视频时刻检索网络,在查询特征提取模块加入查询时序修正操作,使待查询语句中描述不同动作的所有主谓宾三元组按照其对应动作发生的时间顺序排列,实现跨模态特征序列顺序匹配,降低跨模态语义对齐难度。本发明构建了双连接图卷积模块,将候选片段特征作为图节点,通过图卷积将候选片段与前后两部分的全局候选片段连接,实现候选片段特征与视频全局特征的融合,提高候选片段特征表示质量。
-
公开(公告)号:CN117351942A
公开(公告)日:2024-01-05
申请号:CN202311319177.3
申请日:2023-10-12
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于二次重构的多语言音色转换方法,本发明构建由音色提取模块,文本预处理模块,梅尔频谱图生成模块组成音色转换学习网络;语音识别模型将音频识别出的文本替换成识别成音素,在完成音色转换任务的同时,提升了语音识别的准确率。音频两次重构生成新的梅尔频谱图,生成的过程不仅仅是进行了音色转换,而且实现了不同语种之间的音色转换。模型能够感知到不同语言之间的说话的差异性,并且能够在转换的过程中减缓语言差异性带来的影响,解决了不同语种间音色转换存在的口音问题,使得提取的文本特征更加精确,保证了音色转换后发音的准确性。
-
-
-
-
-
-
-
-
-