在线人工中文文本标注系统

    公开(公告)号:CN110717317A

    公开(公告)日:2020-01-21

    申请号:CN201910867119.1

    申请日:2019-09-12

    Abstract: 本发明属于文本标注领域,具体涉及一种在线人工中文文本标注系统,旨在解决现有人工中文文本标注系统无法实现多人协作标注的问题。本发明系统包括:服务器、第一、二客户端;第一、二客户端分别与服务器相连;服务器包括数据库;第一客户端包括管理模块;第二客户端包括标注、重分词、切换模块;管理模块配置为拆分标注文本,并上传数据库;数据库配置为根据分配指令将标注项目与标注用户关联;标注模块配置为对标注项目中的语句进行标注;重分词模块配置为依据输入指令对标注项目的语句进行重新分词;切换模块配置为对标注、重分词模块工作状态的切换。本发明实现了多人协作标注,并提高了文本标注的准确率和效率。

    基于表观特征和深度特征的目标跟踪方法、系统、装置

    公开(公告)号:CN110706253A

    公开(公告)日:2020-01-17

    申请号:CN201910884524.4

    申请日:2019-09-19

    Inventor: 胡卫明 李晶

    Abstract: 本发明属于计算机视觉跟踪技术领域,具体涉及一种基于表观特征和深度特征的目标跟踪方法、系统、装置,旨在解决现有目标跟踪方法忽略目标场景的深度信息导致跟踪精度低的问题。本系统方法包括根据t-1帧的目标位置和预设的目标尺寸,获取待追踪目标在第t帧图像的目标区域和搜索区域;通过表观特征、深度特征提取网络分别提取目标区域、搜索区域的表观特征、深度特征;基于预设权重,分别对目标区域、搜索区域的表观特征、深度特征进行加权平均,得到各自的融合特征;根据目标区域和搜索区域的融合特征,通过相关滤波器得到目标的响应图;将响应图的峰值对应的位置作为第t帧的目标位置。本发明提取目标场景的深度信息,提高了目标跟踪的精度。

    基于骨骼关节点分区域分层次的行为识别方法、系统

    公开(公告)号:CN110215216A

    公开(公告)日:2019-09-10

    申请号:CN201910500528.8

    申请日:2019-06-11

    Abstract: 本发明属于计算机视觉领域,具体涉及一种基于骨骼关节点分区域分层次的行为识别方法、系统、装置,旨在为了解决有效提高行为识别准确率同时减少网络层数的问题。本发明方法包括:获取输入视频的各帧图像,从各帧图像中分别提取骨骼关节点;对每一帧图像,将其中所提取的所述骨骼关节点划分至所划分的各人体区域,并通过图卷积操作获取对应的特征表示,得到第一层特征表示集;对每一帧图像,按照所述各人体区域,基于所述第一层特征表示,通过池化、图卷积方法逐层减少关节点数量,直至通过多层聚合得到一个特征向量,并将该特征向量输入到两个全连接层得到行为类别。本发明提高了行为识别的准确率,加快了训练速度与检测速度。

    一种基于内容的恐怖文本识别方法

    公开(公告)号:CN103942191B

    公开(公告)日:2018-04-27

    申请号:CN201410171360.8

    申请日:2014-04-25

    Abstract: 本发明公开了一种基于内容的恐怖文本识别方法,该方法包括:首先,对需要识别的文本进行预处理,以消除错误数据和冗余数据对识别结果的消极影响;其次,构建基于内容的文本分类器模型,该模型能够分别利用文本标题分类器和文本内容分类器对文本标题和文本内容进行独立识别,然后将两种识别结果进行决策融合,最终得出识别结果;最后,将格式化后的待识别文本数据作为基于文本分类器模型的输入,该模型的输出即为文本的识别结果。该方法在实验数据库上能够取得良好的实验效果,其识别结果具有较高的可靠性和稳定性。

    基于局部类别一致聚类和多任务学习的分类方法及设备

    公开(公告)号:CN107563410A

    公开(公告)日:2018-01-09

    申请号:CN201710662859.2

    申请日:2017-08-04

    Inventor: 胡卫明 毛雪

    Abstract: 本发明涉及计算机数据处理领域,提出了一种基于局部类别一致聚类和多任务学习的分类和设备,旨在解决数据分类中支持向量机因运算量大而使得分类慢的问题。该方法的一具体实施方式包括:使用K-均值对待分类数据进行聚类,在每个聚类上训练一个线性支持向量机以初始化模型的参数;然后,使用局部一致聚类方法将待处理数据划分为多个聚类,在每个聚类上训练一个线性支持向量机;将聚类和训练支持向量机融合到一个产生式图模型中;使用多任务学习方法同时学习上述支持向量机;利用期望最大化算法求解初始分类模型的参数,由上述参数得到分类模型,利用分类模型对待分类数据进行分类。该实施方式提高大规模的待分类数据的分类速度。

    基于时间关联交互融合的网络社区帖子影响排序方法

    公开(公告)号:CN106886561A

    公开(公告)日:2017-06-23

    申请号:CN201611249593.0

    申请日:2016-12-29

    Inventor: 胡卫明 游强 吴偶

    CPC classification number: G06F16/3346 G06F16/31 G06F16/3344

    Abstract: 本发明涉及一种基于时间关联交互融合的网络社区帖子影响排序方法。该方法包括:确定基于时间关联的影响排序;根据文本语义模型,对帖子的文本内容进行语义建模,构建基于语义上下文相似度的语义树;按照统一的交互融合算法,将帖子的文本语义和网络社区的结构信息融合在一起,对帖子的影响进行排序。通过将时间关联信息融入排序方法中,形成时间关联影响排序的方式,在此基础上实现了结合语义和网络社区结构的统一融合框架,将网络结构和文本内容融合在一起,从而解决了网络社区中潜在影响源的发现问题,能够充分利用网络社区帖子的所显示的时间信息和语义上下文信息。

    一种对重复视频进行检测的方法

    公开(公告)号:CN103631932B

    公开(公告)日:2017-03-01

    申请号:CN201310655669.X

    申请日:2013-12-06

    Inventor: 胡卫明 李璇 李兵

    Abstract: 本发明公开了一种对重复视频进行检测的方法,该方法包括以下步骤:对数据库中的所有视频进行帧采样,提取每个视频的关键帧,以获取相应视频的关键信息;对提取得到的视频关键帧的局部特征和全局特征分别进行分析得到局部分析特征和全局分析特征;对局部分析特征和全局分析特征进行融合,得到一个对于视频变换鲁棒的索引特征,用于进行视频重复性检测;利用索引特征对于待检测视频进行重复视频的检测。利用本发明,可以快速高效的检测出重复视频。

    基于判别性示例选择多示例学习的恐怖视频识别方法

    公开(公告)号:CN103413125B

    公开(公告)日:2016-08-17

    申请号:CN201310376064.7

    申请日:2013-08-26

    Abstract: 本发明公开一种基于判别性示例选择多示例学习的恐怖视频识别方法。该方法包括:提取训练视频集中每个视频的视频镜头,针对每个视频镜头选取情感代表帧和情感突变帧表示该镜头;提取对每个镜头的音频和视频特征作为视频示例,组成视频示例集合;从所述视频示例集合中选择出判别性视频示例;计算训练视频集合中每个视频示例与所述判别性视频示例之间的相似性距离,得到特征向量集合;将待识别视频的特征向量与训练视频集合对应的特征向量集合进行稀疏重构,根据重构误差识别视频的类别。本发明提出了一种新的基于判别性示例选择的多示例学习模型应用到恐怖电影场景识别中,该技术具有重要的学术意义和社会意义,并具有广阔的应用前景。

    血腥图像检测分类器实现方法、血腥图像检测方法和系统

    公开(公告)号:CN105760885A

    公开(公告)日:2016-07-13

    申请号:CN201610098457.X

    申请日:2016-02-22

    Inventor: 胡卫明 高岩 吴偶

    CPC classification number: G06K9/6267 G06K9/6223

    Abstract: 本发明公开了一种血腥图像检测分类器实现方法、血腥图像检测方法和血腥图像检测系统。其中,血腥图像检测分类器实现方法包括获取训练样本集,其中,所述训练样本为血腥图像;提取所述血腥图像的颜色特征、纹理特征和形状特征;对所述颜色特征、所述纹理特征和所述形状特征进行聚类,得到聚类中心为视觉的单词,并构建视觉词包模型;基于所述颜色特征、所述纹理特征和所述形状特征及视觉词包模型,对所述颜色特征、所述纹理特征和所述形状特征分配权重,训练最优血腥图像检测分类器。通过本发明实施例解决了如何快速准确地识别血腥图像的技术问题。

    一种基于成分距离关系图的视频目标跟踪方法

    公开(公告)号:CN103646407B

    公开(公告)日:2016-06-22

    申请号:CN201310739297.9

    申请日:2013-12-26

    Abstract: 本发明公开了一种基于成分距离关系图特征的目标跟踪方法,其包括:步骤1、对于待跟踪目标所在的视频,采用粒子滤波方法采样一定数目的粒子,作为候选目标状态;步骤2、对于每个所述候选目标状态对应的表观,构建成分距离关系图特征向量;步骤3、根据所述成分距离关系图特征向量得到表示整个待跟踪目标表观的矩阵,并计算所述表示整个待跟踪目标表观的矩阵到2D PCA(二维主成分分析)子空间的距离;步骤4、根据所述距离获得每个候选目标状态的评价值,将最大评价值对应的候选目标状态作为目标的跟踪状态;步骤5、更新2D PCA子空间,并进行下一帧目标的跟踪。

Patent Agency Ranking