-
公开(公告)号:CN101226597B
公开(公告)日:2010-04-14
申请号:CN200710062820.3
申请日:2007-01-18
Applicant: 中国科学院自动化研究所
IPC: G06K9/62
CPC classification number: G06K9/00348 , G06K9/2018
Abstract: 本发明公开一种基于热红外步态的夜间行人识别方法及系统,方法步骤是:从红外视频图像中检测分割出行人,获取热红外步态图像序列,采用平均灰度图来描述热红外步态视频,进而获取热红外步态特征;基于最近邻分类器,以平均灰度图为身份属性描述,对热红外视频图像中行人的热红外步态进行身份识别。系统包括:热红外视频图像获取模块,红外图像分析处理模块。在CASIA夜间红外步态数据库和在NLPR日间可见光模态步态数据库上的实验证明了本发明对于夜间行人身份识别的有效性和步态表征方式具有较强的识别能力。本发明应用到特殊场合的安全监控。
-
公开(公告)号:CN101635026A
公开(公告)日:2010-01-27
申请号:CN200810117059.3
申请日:2008-07-23
Applicant: 中国科学院自动化研究所
Abstract: 本发明公开一种无需跟踪过程的遗弃物检测方法,包括步骤:对摄像头输入的每帧图像,利用基于象素点的方法提取可能属于遗弃物的象素点,并用每一个可能属于遗弃物象素点的RGB颜色信息去更新相应位置的混合高斯模型;将所述图像中每个象素点的RGB颜色信息输入到更新过的对应混合高斯模型中,检测出与描述相应位置象素点可能出现的遗弃物的颜色信息相匹配的象素点,完成视频中遗弃物的检测,如果有遗弃物被检测则报警。无需跟踪过程的遗弃物检测因为不包含跟踪过程,在复杂场景中对于提高监控系统对监控场景中遗弃物的精确检测有很重要的作用。可用于智能视频监控系统,帮助识别出公共场景中的遗弃物,从而提高公共场所的安全性。
-
公开(公告)号:CN101488222A
公开(公告)日:2009-07-22
申请号:CN200810056258.8
申请日:2008-01-16
Applicant: 中国科学院自动化研究所
IPC: G06T7/00
Abstract: 本发明基于视频中运动目标表象和运动信息的摄像机自标定方法,对包含运动目标的视频进行前景检测,提取运动目标区域;对每一个运动目标区域提取特征;对运动目标区域进行粗略分类;从海量运动目标区域的表象和运动信息中,提取相互垂直的三个消失点;结合摄像机高度信息完成监控场景摄像机的完全标定。本发明替代手工标定的工作量和误差。用于基于图像或视频的测量,通过图像中的点距离获得三维世界的真实点距离,通过图像中的线夹角获得三维世界的真实线夹角。用于监控场景中的物体分类识别,补偿二维图像特征固有的透视变形。用于监控场景中的基于三维模型的物体识别,获得三维姿态和轨迹,有效帮助系统理解场景中发生的行为。
-
公开(公告)号:CN101464944A
公开(公告)日:2009-06-24
申请号:CN200710179883.7
申请日:2007-12-19
Applicant: 中国科学院自动化研究所
Abstract: 本发明一种基于统计特征的人群密度分析方法,包括视频输入和帧抽取;从视频帧序列中提取马赛克图像差分MID特征,检测出人群中的细微的运动;检验赛克图像差分MID特征序列时间均匀分布;对具有明显透视现象的人群场景做几何校正,获得图像平面上每个像素对人群密度的贡献因子;对人群空间面积做加权处理,获得人群密度。该方法与现有方法相比,不需要参考背景,也不需要背景建模,能自适应早晚光线的变化,算法比较鲁棒,应用方便;数学模型简单有效,能准确定位人群的空间分布和大小,直观性强;计算量小,适合实时视觉监控。本发明能广泛地应用于公交、地铁和广场等滞留人群密集的公共场所的监控和管理。
-
公开(公告)号:CN101266710A
公开(公告)日:2008-09-17
申请号:CN200710064387.7
申请日:2007-03-14
Applicant: 中国科学院自动化研究所
IPC: G08B13/196
Abstract: 本发明公开基于规则的全天候智能视频分析监控方法,能够用于室内、户外道路与野外的全天候的基于规则的智能视频分析监控方法,步骤包括:对摄像头采集到的图像序列进行背景分割以得到正确的前景,接着对得到的前景进行目标检测以得到要监控的对象,接着对检测到的对象进行跟踪以得到对象的轨迹,然后对得到的轨迹进行轨迹分析,同时对检测得到的对象进行目标识别以得到对象的类别,然后根据预先制定的由目标类别、目标行为、时间和地点构成的报警规则以及由简单规则复合的复合规则对得到的轨迹分析结果和对象类别进行判断,从而得到是否报警以及以何种方式报警的结果。
-
公开(公告)号:CN117743858A
公开(公告)日:2024-03-22
申请号:CN202410183536.5
申请日:2024-02-19
Applicant: 中国科学院自动化研究所
IPC: G06F18/214 , G06F18/2415 , G06F18/2431 , G06N3/096 , G06V10/764 , G06V10/774 , G06V10/82
Abstract: 本发明涉及人工智能技术领域,提供了一种基于知识增强的连续学习软标签构建方法,该方法包括:随机初始化语义软标签,计算语义Gram矩阵,通过语义Gram矩阵、词向量Gram矩阵和相应类别平滑后的语义软标签,获得优化后的语义软标签损失函数;随机初始化知识蒸馏软标签,计算知识蒸馏Gram矩阵,通过知识蒸馏Gram矩阵、嵌入Gram矩阵和相应类别平滑后的知识蒸馏软标签,获得优化后的知识蒸馏软标签损失函数;将上述两种损失函数结合,获得总损失函数;将所述总损失函数用于新任务的训练。本发明解决了在神经网络模型连续学习过程中缺乏旧任务数据的问题,避免了灾难性遗忘的效果。
-
公开(公告)号:CN117065354A
公开(公告)日:2023-11-17
申请号:CN202310981366.0
申请日:2023-08-04
Applicant: 中国科学院自动化研究所
IPC: A63F13/67
Abstract: 本发明提供一种基于子空间感知的多智能体探索方法和设备,该方法包括:获取多智能体与游戏仿真环境交互得到的多组仿真数据;从多组仿真数据中选取至少一组目标仿真数据,并确定每一组目标仿真数据中多智能体的输出动作分别对应不同维度的状态子空间的团队奖励;基于任意一组目标仿真数据中多智能体的输出动作分别对应不同维度的状态子空间的团队奖励,更新任意一组目标仿真数据中多智能体的输出动作对应的初始团队奖励;在各组目标仿真数据中多智能体的输出动作对应的初始团队奖励更新完成后,基于更新后的至少一组目标仿真数据,更新多智能体的参数,使得智能体的探索方向可以被控制,提高了多智能体的探索效率。
-
公开(公告)号:CN113642358B
公开(公告)日:2023-10-10
申请号:CN202010345814.4
申请日:2020-04-27
Applicant: 华为技术有限公司 , 中国科学院自动化研究所
Abstract: 本申请实施例提供一种肤色检测方法、装置、终端和存储介质,涉及图像处理技术领域,可以提高肤色检测的准确性。肤色检测方法,包括:获取人脸图像;确定人脸图像中的人脸关键点;根据人脸关键点确定人脸图像中的肤色估计感兴趣区域和光照估计感兴趣区域;获取肤色估计感兴趣区域对应的肤色检测色值;获取光照估计感兴趣区域对应的光照检测色值;将肤色检测色值和光照检测色值作为肤色估计模型的特征输入,并获取通过肤色估计模型输出的肤色校正色值。
-
公开(公告)号:CN115660110B
公开(公告)日:2023-04-14
申请号:CN202211672682.1
申请日:2022-12-26
Applicant: 中国科学院自动化研究所
IPC: G06N20/00
Abstract: 本发明提供了一种多智能体信用分配方法、装置、可读存储介质和智能体,涉及强化学习、多智能体技术领域。该方法包括:定义信用分配智能体在预设环境中的信用分配策略空间;使信用分配智能体学习一个信用分配策略,使信用分配智能体在训练时按照信用分配策略探索信用分配策略空间,并基于全局状态信息输出动作;从动作得到目标动作,并将目标动作作为多智能体协同的信用分配策略。该方法从形式上定义了信用分配策略空间,并基于值分解框架提出了随机化信用分配方法,在训练时基于可学习的策略分布,能够以一定概率采样出一个信用分配策略,最终实现了对信用分配策略空间的有效探索,得到更好的信用分配策略,增强算法在多智能体合作任务上的能力。
-
公开(公告)号:CN115618754B
公开(公告)日:2023-04-07
申请号:CN202211631819.9
申请日:2022-12-19
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供了一种多智能体的价值评估方法、装置和可读储存介质,涉人工智能技术领域,旨在解决针对多智能体,价值评估模块进行价值评估过程中,忽略了联合动作的作用,导致价值评估模块的价值评估在联合行动空间上的泛化性较差的技术问题,本发明提供的多智能体的价值评估方法以互信息最大化的方法来更新联合动作映射模型中的映射函数,使得联合动作映射与状态转移向量之间的互信息最大化,即使得联合动作映射的映射向量中蕴含丰富的状态转移信息,也即在通过价值评估模块进行价值评估之前,能够知道联合动作的各种结果信息,这样提前知道联合动作的结果又能够使得价值评估模块的评估结果更加准确。
-
-
-
-
-
-
-
-
-