-
公开(公告)号:CN114969430B
公开(公告)日:2025-05-06
申请号:CN202210429989.2
申请日:2022-04-22
Applicant: 中国科学院软件研究所
IPC: G06F16/732 , G06F16/783 , G06V20/40 , G06V10/74 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/042 , G06N3/0464 , G06N3/045 , G06N3/0455
Abstract: 本发明公开了一种基于草图的场景级细粒度视频检索方法及系统,属于计算机视觉领域,通过提取草图特征,构建基于外观特征和类别特征的草图空间结构图;提取视频特征,构建基于视频时序信息、外观特征和类别特征的视频时空结构图,利用自适应帧采样策略进行视频帧采样,先对视频帧稀疏采样,再利用草图‑视频关联关系模型进行视频帧筛选,利用草图‑视频检索模型中完成视频细粒度检索。本发明将出现在不同时间段的物体压缩至同一张草图中,进行场景级的视频内容概括,检索出与草图背景元素、物体外观特征与动作类型均一致的视频。
-
公开(公告)号:CN114926581B
公开(公告)日:2025-05-06
申请号:CN202210430797.3
申请日:2022-04-22
Applicant: 中国科学院软件研究所
Abstract: 本发明公开了一种二维到三维人脸表情迁移方法、电子装置及存储介质,属于计算机视觉领域。该方法包括:获取真实交互场景下的二维人脸图像作为源表情表示,虚拟交互场景下的三维人脸形变模型作为目标三维人脸表情表示;为二维人脸图像提取人脸三维参数;基于人脸三维参数中的表情参数,通过融合变形系数估计模型获取目标表情的融合变形系数;依据所得目标表情融合变形系数驱动三维人脸模型生成目标表情表示。本发明能够有效提取人脸表情相关参数,缓解人脸表情从二维空间到三维空间的跨维度难题;将表情参数变换至目标融合变形系数,保证了该方法的广泛适用性。本方法可实现准确、快速的人脸表情迁移,可用于提升动画师在进行三维人脸建模与创作过程中的工作效率。
-
公开(公告)号:CN112950066B
公开(公告)日:2024-05-14
申请号:CN202110338245.5
申请日:2021-03-30
Applicant: 南通明兴科技开发有限公司 , 中国科学院软件研究所
IPC: G05B19/418 , G06Q10/0631 , G06Q50/04 , G06K17/00
Abstract: 本申请涉及一种定制化混流生产系统,包括:包管理模块,用于为属于同一个包的所有裁片指定相同的包序号;多个功能单元,用于对进入功能单元的吊架所装载的裁片进行相应的加工;工序管理模块,用于将产品的完整加工流程拆分为多个裁片任务,并确定裁片任务的加工工序与裁片任务间的合并顺序;吊架管理模块,用于根据裁片任务的加工工序与裁片任务间的合并顺序,将吊架在多个功能单元之间进行流转。本申请的定制化混流生产系统通过将传统的生产系统任务进行细化和归纳,按照工序的拆分和合并原则,整理为一组裁片任务的集合,各个裁片任务同时进行串行和并行加工,从而极大提升生产效率。
-
公开(公告)号:CN117351074A
公开(公告)日:2024-01-05
申请号:CN202311115470.8
申请日:2023-08-31
Applicant: 中国科学院软件研究所
IPC: G06T7/73 , G02B27/00 , G06T7/80 , G06V10/762
Abstract: 本发明公开了一种基于头戴式眼动仪和深度相机的视点位置检测方法及装置,涉及人机交互技术领域与视线操控的相关技术领域。对头戴式眼动仪的前景相机和深度相机进行标定,获得内参矩阵和外参矩阵;利用深度相机对显示屏角点进行精确定位;根据深度相机的内参矩阵和外参矩阵,将深度相机坐标系的显示屏角点转换到世界坐标系中;根据前景相机的内参矩阵和显示屏角点坐标,将前景相机上的视点坐标转换为世界坐标系中,再转换到显示屏坐标系中,得到在显示屏中的视点位置;对连续的视点位置进行滤波,得到稳定的视点位置。本发明能够实时获得用户在显示屏坐标系下的视点位置,缩短注视时间,实现跨屏交互,提升视线交互的智能性和操控效率。
-
公开(公告)号:CN115952438B
公开(公告)日:2023-11-17
申请号:CN202211596521.9
申请日:2022-12-12
Applicant: 中国科学院软件研究所
IPC: G06F18/241 , G06F18/22 , G06N3/04 , G06N3/08 , G06F16/35 , G06F16/9536 , G06Q50/00
Abstract: 本发明提供一种社交平台用户属性预测方法、系统、移动设备及存储介质,社交平台用户属性预测方法包括以下步骤:采集社交平台用户的数据;对于采集到的数据进行文本特征的提取;将提取的文本特征输入到特征训练MLP,从而对于社交平台用户生成伪标签矩阵;计算不完全程度;根据生成的伪标签矩阵和计算出的不完全程度计算块相似矩阵;根据计算出的块相似矩阵计算社交平台用户之间特征传递的权重;根据计算出的权重基于异构图网络模型进行节点特征的聚合;使用经过异构图网络模型的节点特征的聚合之后的特征向量训练MLP对社交平台用户的属性进行分类预测。根据本发明,适用于不同在线社交平台,预测的准确率高。
-
公开(公告)号:CN111354458B
公开(公告)日:2023-11-14
申请号:CN201811591897.4
申请日:2018-12-20
Applicant: 中国科学院软件研究所
IPC: G16H50/20 , G16H40/63 , G06F3/0488 , G06F3/0354 , A61B5/00
Abstract: 本发明属于数字医疗领域,具体涉及一种基于通用绘图任务的触控交互运动用户特征提取方法和辅助疾病检测系统。利用触控笔和绘图板进行于与任务无关的用户特征提取,对神经系统疾病患者的手部运动功能进行评价,实现了一个基于通用绘图任务的神经系统疾病日常监测和早期预警系统,对系统的分类模型进行了分析和验证,结果显示该系统能够对神经系统疾病进行准确预测。本发明是首个利用笔交互技术在一般绘图任务中实现自动识别神经系统疾病的系统,采用的特征提取方法可以用来构建鲁棒且准确的识别模型,依照本系统构建的绘图系统,可以在无监督的、任务无关的情况下用于包括但不限于神经系统疾病检测领域的自动诊断。
-
公开(公告)号:CN116912807A
公开(公告)日:2023-10-20
申请号:CN202310917593.7
申请日:2023-07-25
Applicant: 中国科学院软件研究所
IPC: G06V20/59 , G06V40/16 , G06V40/18 , G06V10/762 , G06V10/82 , G06V10/774 , G06T7/73
Abstract: 本发明公开了一种基于内嵌三维参数的驾驶员注视区域估计方法及装置。所述方法包括:计算数据集中驾驶员面部图像的面部深度信息,所述驾驶员面部图像由位于不同位置的摄像装置拍摄得到;计算数据集中驾驶员面部图像的背景信息聚簇,并基于聚簇结果为驾驶员面部图像分配一伪标签;基于驾驶员面部图像、驾驶员面部图像的面部深度信息以及驾驶员面部图像的伪标签对一内嵌三维参数的神经网络进行训练,得到注视区域估计模型;将待测图像、待测图像的面部深度信息以及待测图像的伪标签输入注视区域估计模型,得到待测图像中驾驶员的注视区域和相机位置。本发明有效保证驾驶员注视区域估计的准确性的同时,可以对不同车型和不同的相机位置进行自适应。
-
公开(公告)号:CN116489126A
公开(公告)日:2023-07-25
申请号:CN202310535166.2
申请日:2023-05-12
Applicant: 中国科学院软件研究所
IPC: H04L61/4511
Abstract: 本发明提供一种自适应缓存的多层级域名解析系统与方法,系统包括:域名解析模块以及数据中心,所述域名解析模块包括一级DNS服务器和二级DNS服务器,所述数据中心包括:域名资源存储模块、解析行为分析模块、缓存容量计算模块和缓存调度模块。方法包括:解析行为日志分析、自适应缓存容量计算、缓存替换内容选择、数据有效性维护。本发明能自适应管理一级与二级域名服务器中的缓存,使高命中率的小规模域名数据存于一级域名服务器,而二级服务器最大化缓存历史流量中所有域名的有效资源记录,从而可以有效提高多层级域名解析系统的一次缓存命中率与总体缓存命中率,提升域名解析系统的解析效率。
-
公开(公告)号:CN116468886A
公开(公告)日:2023-07-21
申请号:CN202310215854.0
申请日:2023-03-01
Applicant: 中国科学院软件研究所
IPC: G06V10/26 , G06V20/70 , G06V10/44 , G06V10/62 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0442 , G06N3/0464
Abstract: 本发明涉及一种基于笔画的场景草图语义分割方法和装置。该方法包括:提取场景草图中笔画的外观特征;使用笔画的外观特征作为输入,通过循环神经网络对笔画进行时序特征编码,得到时序特征;通过邻近笔画的位置关系构建笔画之间的图结构,将每个笔画的时序特征作为图的节点,同时计算笔画之间的邻近关系得到邻接矩阵,通过图卷积神经网络对笔画进行空间特征编码,得到空间特征;对时序特征和空间特征进行融合,根据融合后的特征对每条笔画进行类别预测,完成基于笔画的场景草图语义分割。本发明通过融合外观、时序、空间三个不同层次的特征,能够对场景草图中的每条笔画进行分类识别,实现基于笔画特征的场景草图语义分割。
-
公开(公告)号:CN116401363A
公开(公告)日:2023-07-07
申请号:CN202310202945.0
申请日:2023-03-06
Applicant: 中国科学院软件研究所
Abstract: 本发明涉及面向开放环境的弱监督持续文本分类方法、装置。方法包括:数据采集步骤;初步分类步骤;延迟分类决策步骤;种子词更新步骤。提出了一个弱监督文本分类的持续学习框架,通过延迟低置信度的分类决策,在分类准确性和决策及时性之间做出良好的权衡;并且实现了自动捕捉主题的语义变化,从而主动更新每个已知类别的种子词,做到了旧知识的维护和新知识的发现之间的平衡。
-
-
-
-
-
-
-
-
-