-
公开(公告)号:CN114299952A
公开(公告)日:2022-04-08
申请号:CN202111632116.3
申请日:2021-12-29
Applicant: 湖北微模式科技发展有限公司
IPC: G10L15/25 , G10L15/02 , G10L15/04 , G10L17/02 , G10L17/14 , G10L25/45 , G10L25/57 , G10L25/84 , G06V20/40 , G06V40/16 , G06V40/20
Abstract: 结合多种运动分析的话者角色区分方法及系统,方法包括:步骤1:分割视频,分割后得到音频信息和视频信息;步骤2:音频信息分析;步骤3:视频信息分析;步骤4:音视频融合分析划分话者角色,匹配步骤2和步骤3两种分析结果的时间节点得到角色划分结果。一方面利用音频信息,提取音频特征,并基于音频特征进行说话人转换检测用于话者角色区分;另一方面利用视频信息,分析视频中说话人的头部状态、口罩和嘴巴状态,对视频中人说话的起始时间进行判断;最后融合两种检测结果得到更准确的角色区分结果。本发明能完成对待稽核视频的采集存储,同时完成对视频的话者角色区分,高效精准。
-
公开(公告)号:CN114140726A
公开(公告)日:2022-03-04
申请号:CN202111465006.2
申请日:2021-12-03
Applicant: 湖北微模式科技发展有限公司
Abstract: 目标正反面展示动作连续性的检测方法,应用于检测视频中展示目标正反面动作是否连续,包括以下步骤:步骤1:提取视频中目标正面检测成功的最后一帧帧号t1和目标区域boxf;步骤2:提取视频中目标反面检测成功的第一帧帧号t2和目标区域boxb;步骤3:判断目标正反面展示动作是否连续,如果t2‑t1
-
公开(公告)号:CN114140493A
公开(公告)日:2022-03-04
申请号:CN202111465500.9
申请日:2021-12-03
Applicant: 湖北微模式科技发展有限公司
Abstract: 目标多角度展示动作连续性检测方法,应用于检测视频中多角度展示动作是否连续,包括以下步骤:步骤1:提取视频中的运动目标作为检测目标;步骤2:判断所述运动目标是否移出摄像头;步骤3:进一步判断运动目标多角度展示动作是否连续,并输出目标多角度展示动作是否连续的结果。该方法能实现在线上办理业务的应用场景下,通过对客户提供的展示视频的目标多角度展示动作的连续性进行判断,从而判定客户在视频中多角度展示的目标是否来自同一个实物。
-
公开(公告)号:CN107871019A
公开(公告)日:2018-04-03
申请号:CN201711247163.X
申请日:2017-12-01
Applicant: 湖北微模式科技发展有限公司
IPC: G06F17/30
Abstract: 本发明实施例提供一种人车关联搜索方法及装置。所述人车关联搜索方法包括:根据设定的人物特征查询图像采集设备采集的影像中包含所述人物特征的第一目标影像,实现对目标人物的影像搜索;当所述目标人物靠近车辆时,判断所述目标人物是否有进入该车辆的行为;当所述目标人物有进入该车辆的行为时,获取所述车辆的车辆特征;根据所述车辆特征查询所述图像采集设备采集的影像中包含所述车辆特征的第二目标影像,实现对车辆的影像搜索。
-
公开(公告)号:CN103440479B
公开(公告)日:2016-12-28
申请号:CN201310384572.X
申请日:2013-08-29
Applicant: 湖北微模式科技发展有限公司
Abstract: 本发明涉及一种活体人脸检测方法与系统,所述方法包括:从拍摄的视频序列中获取图像;在视频图像中检测人脸;面部关键区域检测定位;通过关键区域检测分类器随机选择动作集中的一种或多种动作,随机选择动作完成的次数,提示用户;若用户在指定的时间内完成随机选定的若干动作若干次,则判定为活体;否则,判定为非活体。本发明在进行活体检测时,系统每次随机选定一些动作以及指定完成动作的次数,因此,用户不可能利用照片来欺骗从而通过活体检测。另外,由于被检测项是随机选择的,用户不可能通过播放视频剪辑的方式来通过活体检测。所以本发明可以更好地防止活体检测中的照片和视频剪辑方式等欺诈行为,使得活体检测的可靠性和安全性更高。
-
公开(公告)号:CN118887671B
公开(公告)日:2024-12-17
申请号:CN202411368829.7
申请日:2024-09-29
Applicant: 湖北微模式科技发展有限公司
IPC: G06V30/12 , G06V30/224 , G06V30/14 , G06V30/148 , G06V30/162 , G06V30/18 , G06V30/19
Abstract: 本发明公开一种基于图像处理的彩色文字打印重影质检方法及装置,涉及图像质检技术领域,本发明所提出的方法首先对卡证或者纸张的打印区域进行成像,然后在图像中定位出文字区域并进行分类得到彩色文字区域,接着对彩色文字区域进行切分得到文字块,采用分类算法判断文字块是否出现打印偏移,即“重影”,最后综合所有彩色文字块的判断结果来进行投票统计,当投票结果超过设定阈值时,才判断待质检目标彩色打印区域有重影缺陷,减少出现误判断的风险。可以自动地对打印区域彩色文字的打印质量进行质检,无需人工处理,同时可以提高准确度。
-
公开(公告)号:CN117057971B
公开(公告)日:2023-12-29
申请号:CN202311278634.9
申请日:2023-10-07
Applicant: 湖北微模式科技发展有限公司
IPC: G06T1/00
Abstract: 本发明公开一种基于亮度收缩校准的JPEG图像半脆弱水印算法及装置,涉及图像隐写与数字水印技术领域,首先将JPEG图像中亮度分量进行中部收缩;然后,对经过该处理的JPEG图像使用相同的量化表进行二次压缩得到校准图像;接着,将校准后的DCT系数与原始DCT系数进行比对,得到量化索引调制的量化方向;最后进行量化索引调制完成量化;提取时,对JPEG图像的亮度DCT系数进行解量化得到半脆弱水印。本发明采用亮度收缩校准方法和量化索引调整技术的结合创新地解决了传统水印技术的诸多问题,提升了数字水印技术在JPEG图像中的应用前景。在图像的版权保护、身份验证、图像防篡改、信息隐藏等领域都具有广泛的应用价值。(56)对比文件US 2006083403 A1,2006.04.20US 2008267520 A1,2008.10.30US 2010226527 A1,2010.09.09杨文杰;王卫卫;宋国乡.一种彩色图像水印认证算法.计算机应用.2005,(第S1期),全文.王斌等.一种基于整数小波变换的医学图像半脆弱水印算法《.计算机科学》.2008,第35卷(第1期),258-260.Wang Zuxi et al..Recoverable imagewatermarking based on halftoning forcontent authentication《.ComputerScience》.2009,第7498卷74984N.尹柳;易招师;陈光喜.用于图像认证的半脆弱数字水印的设计与实现.计算机系统应用.2009,(第04期),全文.张永平,郭宝龙.一种带反馈的半脆弱认证水印算法.西安电子科技大学学报.2004,(第05期),全文.王孔清;王希常;刘江.一种抗JPEG压缩的彩色图像半脆弱水印算法.计算机安全.2009,(第02期),全文.王艳辉;王相海.用于图像认证的数字水印技术综述.计算机工程与应用.2007,(第02期),全文.陆鹏;汤进;罗斌.基于Windows Mobile平台图像认证系统设计实现.计算机技术与发展.2010,(第11期),全文.王孔清;王希常;刘江.一种抗JPEG压缩的彩色图像半脆弱水印算法.计算机安全.2009,(第02期),全文.谭春娇;祝恩.一种彩色图像可恢复半脆弱数字水印算法.计算机工程与科学.2015,(第03期),全文.
-
公开(公告)号:CN116862677A
公开(公告)日:2023-10-10
申请号:CN202311126795.6
申请日:2023-09-04
Applicant: 湖北微模式科技发展有限公司
IPC: G06Q40/04 , G06Q30/018 , G06Q20/38
Abstract: 一种具备检查功能的互联网交易可回溯方法及系统,该方法与系统不仅可以无感采集客户操作轨迹,真实全面记录互联网交易全过程,还可以记录交易过程中经营者向客户展示的所有信息,并根据相关的法律法规对经营者的合法合规性进行检查,将互联网交易过程的操作视频及对经营者的合法合规性的检查结果进行存储,供后期查验,从而有效的保护客户权益。
-
公开(公告)号:CN114282621B
公开(公告)日:2022-08-23
申请号:CN202111633230.8
申请日:2021-12-29
Applicant: 湖北微模式科技发展有限公司
Abstract: 一种多模态融合的话者角色区分方法与系统,方法包括:步骤1:分割视频,分割后得到音频信息和视频信息;步骤2:音频信息分析,截取音频信息中出现语音特征的语音片段,记录所述语音片段的时间节点,并提取语音片段的声纹特征用于角色区分;步骤3:视频信息分析,跟踪分析视频信息中各角色的说话特征信息,所述说话特征信息包括头部状态信息、口罩信息和嘴巴状态信息。一方面利用音频信息,提取音频特征,并基于音频特征进行说话人转换检测,然后提取声纹特征用于话者角色区分;另一方面利用视频信息,分析视频中说话人的头部状态、口罩和嘴巴状态,对视频中人说话的起始时间进行判断;最后融合两种检测结果得到更准确的角色区分结果。
-
公开(公告)号:CN114299952B
公开(公告)日:2022-08-19
申请号:CN202111632116.3
申请日:2021-12-29
Applicant: 湖北微模式科技发展有限公司
IPC: G10L15/25 , G10L15/02 , G10L15/04 , G10L17/02 , G10L17/14 , G10L25/45 , G10L25/57 , G10L25/84 , G06V20/40 , G06V40/16 , G06V40/20
Abstract: 结合多种运动分析的话者角色区分方法及系统,方法包括:步骤1:分割视频,分割后得到音频信息和视频信息;步骤2:音频信息分析;步骤3:视频信息分析;步骤4:音视频融合分析划分话者角色,匹配步骤2和步骤3两种分析结果的时间节点得到角色划分结果。一方面利用音频信息,提取音频特征,并基于音频特征进行说话人转换检测用于话者角色区分;另一方面利用视频信息,分析视频中说话人的头部状态、口罩和嘴巴状态,对视频中人说话的起始时间进行判断;最后融合两种检测结果得到更准确的角色区分结果。本发明能完成对待稽核视频的采集存储,同时完成对视频的话者角色区分,高效精准。
-
-
-
-
-
-
-
-
-