-
公开(公告)号:CN110659589A
公开(公告)日:2020-01-07
申请号:CN201910840108.4
申请日:2019-09-06
Applicant: 中国科学院自动化研究所 , 国网浙江省电力有限公司
Abstract: 本发明属于图像识别技术领域,具体涉及了一种基于姿态和注意力机制的行人再识别方法、系统、装置,旨在解决不同任务数据集偏差导致无法准确获取图像关键点信息,行人再识别精度无法达到预期要求的问题。本发明方法包括:提取行人姿态并生成行人关键点;删除冗余背景信息并修正行人检测框;提取第一特征图并采用硬注意力机制模块获取硬注意力图;融合第一特征图与硬注意力图,得到第二特征图;采用软注意力机制模块获取软注意力图后再次融合;对融合后的第三特征图进行全局平均池化以及特征降维,获得用于行人再识别的特征向量。本发明结合硬注意力机制与软注意力机制,有效增强特征图前景信息,抑制背景噪声,提高了行人再识别的准确性和稳定性。
-
公开(公告)号:CN110232413A
公开(公告)日:2019-09-13
申请号:CN201910468895.4
申请日:2019-05-31
Applicant: 华北电力大学(保定) , 中国科学院自动化研究所
Abstract: 本发明属于计算机及图像处理领域,具体涉及了一种基于GRU网络的绝缘子图像语义描述方法、系统、装置,旨在解决现有技术给出图像语义内容无法满足机器以及神经网络学习需要的问题。本发明方法包括:获取包含绝缘子的图像作为待描述图像;采用特征提取网络提取含绝缘子的图像的特征,获得特征向量;采用图像语义描述网络,获取对应的语义描述文件;其中,特征提取网络基于循环神经网络构建,图像语义描述网络基于门控循环单元构建。本发明将特征向量和图像的语义标签一并输入到GRU网络中,通过图像和语义标签的映射关系,将图像的特征转换成计算机可以理解的序列的形态,获得绝缘子图像的语义描述,从而提高如图像检测等其他任务的性能。
-
公开(公告)号:CN109492522A
公开(公告)日:2019-03-19
申请号:CN201811081113.3
申请日:2018-09-17
Applicant: 中国科学院自动化研究所 , 青岛智能产业技术研究院
Abstract: 本发明公开了一种特定目标检测模型训练程序、设备及计算机可读存储介质,主要步骤包括:利用特定场景的人工场景产生大规模的虚拟数据,来训练行人检测模型,并将训练后的模型作为初始模型应用到实际场景中;根据实际场景的光线等因素的变化,在人工场景中调节相应的参数,使得人工场景与实际场景保持一致,收集更多的虚拟数据,微调更新行人检测模型,使之适应于动态变化的实际场景;根据实际场景的背景变化程度来决定是否更新行人检测模型,如果实际场景的背景图像发生较大变化就更新模型,否则暂不更新模型,继续累积虚拟数据。
-
公开(公告)号:CN104766065B
公开(公告)日:2018-04-27
申请号:CN201510174979.9
申请日:2015-04-14
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供的基于多视角学习的鲁棒性前景检测方法,包括:将输入视频通过时域中值滤波方法获取参考背景图像,对当前图像和所述参考背景图像进行迭代搜索和多尺度融合获取异类特征;利用所述异类特征的条件独立性计算前景类的条件概率密度和背景类的条件概率密度,并且根据前景似然、背景似然和先验概率利用贝叶斯规则计算前景的后验概率和背景的后验概率;通过所述前景的后验概率、所述背景的后验概率和时空一致性约束构建马尔科夫随机场模型的能量函数,利用置信传播算法将所述能量函数最小化得到前景和背景的分割结果。本发明可以在复杂挑战环境下,实现鲁棒性前景检测。
-
公开(公告)号:CN103646187B
公开(公告)日:2017-02-08
申请号:CN201310741928.0
申请日:2013-12-27
Applicant: 中国科学院自动化研究所 , 东莞中国科学院云计算产业技术创新与育成中心
Abstract: 本发明公开了一种统计周期内车辆出行路线及OD矩阵获取方法,该方法包括以下步骤:划分某路网区域中的交通小区及道路;在每段路或合并路段后的出口或入口处放置车辆检测设备,以检测行驶车辆的唯一标识;在统计周期内,利用车辆检测设备不间断地采集道路上行驶的车辆的信息,并将其存储到后台数据库中;提取每辆车在该统计周期内的时间和位置数据,获取该车辆在该统计周期内的路径信息并进行存储;根据所述路径信息获取该车辆的初始地和目的地所处的交通小区,综合考虑所有车辆的起讫点,从而得到统计周期内的OD矩阵。本发明以车辆标识为依据,通过各种数据挖掘与融合方法和先进的计算机实时处理技术,动态地获取和更新车辆出行路线及OD矩阵。
-
公开(公告)号:CN103593991B
公开(公告)日:2016-08-17
申请号:CN201310586992.6
申请日:2013-11-20
Applicant: 东莞中国科学院云计算产业技术创新与育成中心 , 中国科学院自动化研究所
Abstract: 本发明涉及城市交通控制与管理技术领域,尤其是一种交通疏散诱导系统的交通疏散方法。本发明由设置在疏散区域内每条道路的起始和结束位置、每个疏散点、经过疏散区域的公交车上的视频检测设备,设置在疏散路径的交叉点的诱导屏,部署在疏散区域及其周边的无线传感网络,控制中心,及移动或固定接入网络构成视频物联网;控制中心根据现场采集的信息生成两类诱导信息,并通过移动或固定接入网络将诱导信息下发到现场的诱导屏显示;引导疏散者合理分布到各疏散路径和选择疏散点。本发明解决了核心区域的人员疏散问题;可以用于大型活动、旅游景点等场所的交通疏散。
-
公开(公告)号:CN103093249B
公开(公告)日:2016-03-02
申请号:CN201310032257.0
申请日:2013-01-28
Applicant: 中国科学院自动化研究所 , 东莞中国科学院云计算产业技术创新与育成中心
Abstract: 本发明公开了一种基于高清视频的出租车识别方法及系统,该方法主要由目标特征提取、模式分类器设计、出租车跟踪等步骤组成:首先从高清监控视频中精确分割前景区域,将每个前景区域作为一个目标,计算目标的三维尺寸、车顶标志、车身颜色等特征;然后利用这些特征,设计模式分类器,高效准确地识别出租车;最后对已识别的出租车,持续跟踪直至其驶出有效检测区域,避免对出租车重复识别。本发明还公开了一种基于高清视频的出租车识别系统,该系统包括高清摄像机、补光灯和工控机。本发明克服了现有车型识别技术在出租车识别方面的不足,是对城市出租车管理和调度的有力支撑,具有显著的工程应用价值。
-
公开(公告)号:CN103473951B
公开(公告)日:2015-09-23
申请号:CN201310379503.X
申请日:2013-08-27
Applicant: 东莞中国科学院云计算产业技术创新与育成中心 , 中国科学院自动化研究所
Abstract: 本发明涉及停车场管理技术领域,尤其是一种利用自动泊车、临场感和无线通信等技术的基于临场感的自动停车场管理系统。本发明系统包括远程控制室和停车场区域两部分;远程控制室包括信息管理系统、信息显示系统和临场感远程遥控系统;信息管理系统管理停车场的车位占用信息、车辆信息、泊车请求;当车身上安装的车载自动泊车系统发出泊车请求时,将当前请求设为挂起状态,采用先到先响应的一对多响应方式,顺序通知临场感远程遥控系统进行处理;临场感远程遥控系统远程操控车辆,在中心操控员辅助下完成泊车。本发明以自动泊车为主,遥控泊车为辅,实现了单人同时泊多辆车可以应用于停车场的车辆管理中。
-
公开(公告)号:CN103150903B
公开(公告)日:2014-10-29
申请号:CN201310049726.X
申请日:2013-02-07
Applicant: 中国科学院自动化研究所 , 东莞中国科学院云计算产业技术创新与育成中心
Abstract: 本发明公开了一种自适应学习的视频车辆检测方法,该方法将视频车辆检测问题视为模式分类问题,主要由图像特征提取、分类器离线训练、分类器在线优化、车辆计数步骤组成:首先从监控视频中提取若干种有区分力的图像特征,这些特征既能够区分车辆和背景,又包含与光照和天气条件相关的环境信息;然后利用监督学习方法离线训练模式分类器,并在线优化模式分类器,自动调整各个分量分类器的结构和参数,使分类器具有自适应学习能力,在复杂交通场景中取得更好的分类效果;最后对分类结果序列做后处理,进一步提高车辆检测和计数的精度。本发明增强了现有的虚拟线圈车辆检测方法,具有显著的工程应用价值,能够促进视频监控领域和智能交通领域的发展。
-
公开(公告)号:CN103593991A
公开(公告)日:2014-02-19
申请号:CN201310586992.6
申请日:2013-11-20
Applicant: 东莞中国科学院云计算产业技术创新与育成中心 , 中国科学院自动化研究所
Abstract: 本发明涉及城市交通控制与管理技术领域,尤其是一种交通疏散诱导系统及其交通疏散方法。本发明由设置在疏散区域内每条道路的起始和结束位置、每个疏散点、经过疏散区域的公交车上的视频检测设备,设置在疏散路径的交叉点的诱导屏,部署在疏散区域及其周边的无线传感网络,控制中心,及移动或固定接入网络构成视频物联网;控制中心根据现场采集的信息生成两类诱导信息,并通过移动或固定接入网络将诱导信息下发到现场的诱导屏显示;引导疏散者合理分布到各疏散路径和选择疏散点。本发明解决了核心区域的人员疏散问题;可以用于大型活动、旅游景点等场所的交通疏散。
-
-
-
-
-
-
-
-
-