-
公开(公告)号:CN114613006A
公开(公告)日:2022-06-10
申请号:CN202210225062.7
申请日:2022-03-09
Applicant: 中国科学院软件研究所
IPC: G06V40/20 , G06V20/40 , G06K9/62 , G06N3/04 , G06V10/774 , G06V10/28 , G06V10/80 , G06V10/82 , G06N3/08
Abstract: 本发明公开了一种远距离手势识别方法及装置,所述方法包括:获取目标视频中帧p1的手部位置h1,并基于所述手部位置h1,计算帧p1的手势估计区域;基于目标视频中帧pi的手部位置hi,计算帧pi的手势估计区域;基于手势估计区域切分所述目标视频,得到若干视频流;对各所述视频流st进行手势识别,得到所述目标视频的手势识别结果。本发明能够在远距离情况下对视频中出现的多个手势进行检测和识别,能够应对不同类别手势持续时间和个体手势速度差异的影响,具有更强的抗干扰性和更高的识别精度。
-
公开(公告)号:CN116401373A
公开(公告)日:2023-07-07
申请号:CN202310233658.6
申请日:2023-03-13
Applicant: 中国科学院软件研究所 , 中科南京软件技术研究院
IPC: G06F16/36 , G06F16/35 , G06F40/284 , G06F40/237 , G06F40/30 , G06N3/047 , G06N3/048 , G06N3/08 , G06N3/0464 , G06N3/0455 , G06N5/022
Abstract: 本发明公开了一种试题知识点的标注方法、存储介质及设备;包括S1:确定试题与知识点间关系,构建试题‑知识点关系模型;S2:搜集各类学科试题并进行人工知识点标注,然后构建出知识点题库;S3:对知识点题库中内容进行预处理;S4:结合多距离上下文融合模块以及BERT编码器构建试题知识点标注模型,通过预处理后的试题文本进行特征提取,以实现对试题相关知识点进行标注的训练;S5:将训练完成后的试题知识点标注模型进行测试,然后应用到试题中知识点的识别标注。上述方案明确了试题、学科与知识点间的关系,以能够同时识别多门学科、多类别的知识点,无需再为各个学科单独构建模型,并对冷门知识点的预测也能保持较高准确率。
-
公开(公告)号:CN114676777A
公开(公告)日:2022-06-28
申请号:CN202210306415.6
申请日:2022-03-25
Applicant: 中国科学院软件研究所
IPC: G06K9/62 , G06N3/04 , G06N3/08 , G06V10/764 , G06V10/82
Abstract: 本发明公开了一种基于孪生网络的自监督学习细粒度图像分类方法。本发明首先利用注意力编码器提取图像的深度卷积特征,获取蕴含语义信息的注意力图并通过双线性池化方式编码图像特征;其次从原始图像上定位出注意力图上高响应值所在的显著区域,对显著区域进行裁切和擦除操作,从而形成不同视角的视图,以自监督的方式学习视角不变性特征;最后联合中心损失函数以及一致性损失函数,显示地约束不同视角特征,保持它们的类内一致性。本发明方法使得网络获得显著的性能增益,可以在细粒度图像分类的基线上显著提升分类准确度。
-
公开(公告)号:CN114613006B
公开(公告)日:2024-11-15
申请号:CN202210225062.7
申请日:2022-03-09
Applicant: 中国科学院软件研究所
IPC: G06V40/20 , G06V20/40 , G06N3/0464 , G06V10/774 , G06V10/28 , G06V10/80 , G06V10/82 , G06N3/09
Abstract: 本发明公开了一种远距离手势识别方法及装置,所述方法包括:获取目标视频中帧p1的手部位置h1,并基于所述手部位置h1,计算帧p1的手势估计区域;基于目标视频中帧pi的手部位置hi,计算帧pi的手势估计区域;基于手势估计区域切分所述目标视频,得到若干视频流;对各所述视频流st进行手势识别,得到所述目标视频的手势识别结果。本发明能够在远距离情况下对视频中出现的多个手势进行检测和识别,能够应对不同类别手势持续时间和个体手势速度差异的影响,具有更强的抗干扰性和更高的识别精度。
-
公开(公告)号:CN113743521B
公开(公告)日:2023-06-27
申请号:CN202111061082.7
申请日:2021-09-10
Applicant: 中国科学院软件研究所
IPC: G06V10/80 , G06V10/75 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多尺度上下文感知的目标检测方法,其步骤包括:1)提取图像的多个尺度特征;2)通过空洞残差块对该多尺度特征中的顶层特征进行增强,得到具有高层次特征的顶层特征;3)对相邻层次的特征进行融合,生成金字塔特征;4)对金字塔特征进行聚合,获得特征Xm;5)通过依赖增强模块进一步增强特征Xm,生成增强后的特征Xo;6)将特征Xo分别通过上采样或者下采样的方式,与金字塔特征进行匹配相加;7)将步骤6)所得特征输入到候选区域生成网络中生成候选框,并提取候选框的特征;8)将候选框的特征输入到头部检测模块进行预测,然后通过非极大值抑制方法对候选框的检测结果进行过滤,得到物品的类别和位置信息。
-
-
-
-