一种车辆监控图像中车牌位置自动提取并透视校正的方法

    公开(公告)号:CN106203433A

    公开(公告)日:2016-12-07

    申请号:CN201610551081.3

    申请日:2016-07-13

    Abstract: 本发明公开了一种车辆监控图像中车牌位置自动提取并透视校正的方法,利用边缘和颜色信息在图像中找到车牌的大概区域,对图像做直线检测,利用区域边界信息结合显著直线,确定构成透视变形车牌的四条边界线,求解显著直线的四个交点,与目标矩形四角点建立映射,反算透视校正矩阵,完成车牌透视校正。本发明获得了透视失真的车牌四个角点位置,并与目标矩形四角点建立映射,计算透视变换矩阵,完成车牌透视校正;相比基于水平和竖直方向旋转的仿射变换方法,真实描述了透视形变,保证了更高的车牌图像校正精度,与仿射变换算法相比,本发明不仅能检测车牌的透视失真信息,还能精确的定位车牌边界角点,计算透视校正矩阵,准确实现车牌透视校正。

    用于通用打印机的打印监控系统及方法

    公开(公告)号:CN103336923B

    公开(公告)日:2016-10-12

    申请号:CN201310089232.4

    申请日:2013-03-06

    Abstract: 本发明公开一种用于通用打印机的打印监控系统及方法,本发明的打印监控系统包括打印控制器、虚拟打印机驱动器、服务器和多台物理打印机。本发明的打印监控方法的具体步骤为:1、安装打印控制器和虚拟打印机驱动器;2.设定关键字;3、监控用户打印操作;4、形成新的打印文档名;5、选择物理打印机;6、启动打印操作;7、记录打印内容文本;8、嵌入明文水印和二维码;9、发送打印文档;10、记录关键字。本发明在不改变客户端打印机部署的前提下实现对物理打印机的控制,并通过对打印内容的检查和处理,提供一种有效的对打印内容进行审计以及对文档来源进行追踪的方法。

    基于实例学习和Sadowsky分布的卷积神经网络参数调整方法

    公开(公告)号:CN104850890A

    公开(公告)日:2015-08-19

    申请号:CN201510175608.2

    申请日:2015-04-14

    Abstract: 本发明公开了一种基于实例学习和Sadowsky分布的卷积神经网络参数调整方法,主要是在利用卷积神经网络训练分类模型的基础上,将特例样本的进一步分类问题归结为基于Sadowsky分布的感知问题,并从理论上证明了感知特征向量中存在Sadowsky分布;通过构造实例集合、Sadowsky分布搜索算法和满足Sadowsky分布的权值映射算法,来训练新的实例卷积神经网络;在分类决策时,两个卷积神经网络共同作用于样本,取概率最大值对应的标签作为分类的结果。本发明的方法能够在保证具有公共特征的样本分类正确的基础上,进一步提高特例样本的分类精度。

    基于分层度量学习的跨模态信息检索方法

    公开(公告)号:CN113590867B

    公开(公告)日:2024-02-09

    申请号:CN202110893943.1

    申请日:2021-08-05

    Abstract: 本发明公开了一种基于分层度量学习的跨模态信息检索方法,其实现步骤为:(1)建立训练集;(2)构建分层度量学习网络;(3)训练分层度量学习网络;(4)利用图像检索文本;(5)利用文本检索图像。本发明构建了与标签层数相等的多个分层度量学习子网络组成分层度量学习网络,采用了特征嵌入模块对图像样本和文本样本进行实值特征表示学习,使得最终分层度量学习网络学习到的特征能包含层次标签的所有标签信息,学习到的图像特征和文本特征具有更高的数值精度,提高了跨模态信息检索的精度,增强了跨模态信息检索过程中数据特征结构的稳定性。

    基于差分多尺度多粒度特征融合的视频文本检索方法

    公开(公告)号:CN116226449A

    公开(公告)日:2023-06-06

    申请号:CN202310050175.2

    申请日:2023-02-01

    Abstract: 本发明公开了一种基于差分多尺度多粒度特征融合的视频文本检索方法,主要解决现有技术未充分利用视频时序特征及细粒度信息文本标注造成视频文本匹配精度低的问题,其实现方案为:获取视频帧序列及文本标注序列;构建特征提取网络并提取文本标注的全局和局部特征;将视频帧特征按时间序列差分并通过序列特征提取网络与帧特征结合得到视频的局部和全局特征;计算视频和文本标注的全局相似度和局部相似度,计算出损失函数;利用损失函数训练网络;利用训练好的网络计算视频与文本标注的相似度并排序得到检索结果。本发明能减少不同模态之间的语义鸿沟,挖掘视频模态数据中的时序信息,提升跨模态检索精度,可用于视频主题检测和视频应用的内容推荐。

    基于预训练模型的视频文本检索方法

    公开(公告)号:CN116109960A

    公开(公告)日:2023-05-12

    申请号:CN202210804157.4

    申请日:2022-07-07

    Abstract: 本发明公开了一种基于预训练模型的视频文本检索方法,主要解决现有方法中数据特征异质性及冗余级联造成视频文本匹配精度低的问题;方案包括:1)获取视频数据集的帧序列及文本标注切分产生的文本序列;2)采用图文预训练模型协同提取视频和文本的特征;3)将视频以块级联形式映射,同时将协同提取应用到视频的聚合阶段,以文本表征指导聚合视频帧级特征;4)加入交叉方向上的先验概率并使用分散约束损失,完成模型训练;5)利用训练好的视频文本匹配模型得到最终检索结果。本发明能够有效减少不同模态之间的语义鸿沟,充分挖掘视频模态数据中的复杂时空信息,提升跨模态检索精度。

    基于时空融合的深度伪造人脸视频定位方法

    公开(公告)号:CN113011357B

    公开(公告)日:2023-04-25

    申请号:CN202110325432.X

    申请日:2021-03-26

    Abstract: 本发明公开了一种基于时空融合的深度伪造人脸视频定位方法,其步骤为:(1)构建卷积神经网络;(2)构建融合时域和空间域特征的分类网络;(3)构建分割定位任务网络;(4)构建重建任务网络;(5)构建多任务融合网络;(6)生成多任务融合损失函数;(7)生成训练集;(8)训练多任务融合网络;(9)对深度伪造人脸视频进行识别定位。本发明构建融合时域和空间域特征的分类网络提取特征,可以提取到更完整的帧内和帧间特征,获得更高的准确率,同时,本发明构建用于训练多任务融合网络的多任务融合损失函数,解决了未见攻击类别和任务单一化导致的影响泛化能力和功能完善性的问题。

Patent Agency Ranking