一种从PATCH到REGION架构的大幅面遥感影像语义分割方法

    公开(公告)号:CN116310325A

    公开(公告)日:2023-06-23

    申请号:CN202310173080.X

    申请日:2023-02-23

    Abstract: 本发明针对高分辨率遥感影像单次处理区域小、分割性能受限制等问题,设计了一种从PATCH到REGION架构的大幅面遥感影像语义分割方法,该架构为分层图像金字塔结构,最下层的是较小的图像块,简称“Patch”,上层的是较大的影像区域,简称“Region”。“Patch”部分处理的对象是较小的图像块,采用的是融合Transformer的U型结构语义分割网络,输出的是像素级别的语义特征。“Region”部分处理对象为较大的影像区域,为了减少计算的参数量,采用全局平均池化算法将“Patch”块输出的像素级别语义特征转换为“Patch”级别的语义特征,之后通过Transformer模块提取“Region”级别的全局上下文信息,最后聚合全局上下文信息和像素级别的语义特征来获得高质量的分割图。该方法在高分辨率遥感影像处理领域具有广泛的应用前景。

    一种自然语言文本和数学语言文本的混合词嵌入方法

    公开(公告)号:CN114818698A

    公开(公告)日:2022-07-29

    申请号:CN202210469691.4

    申请日:2022-04-28

    Abstract: 本发明提供了一种自然语言文本和数学语言文本的混合词嵌入方法,包括:对混合文本进行识别和预处理,得到由文本和数学表达式组成的数学资源数据集;对具有树形结构的数学表达式进行位置编码,保持树形结构的相对位置平移不变;对具有线性结构特征的文本和具有树形结构特征的数学表达式进行统一位置编码;将相对位置编码送入预训练模型的注意力模块,采用掩蔽语言模型和下句预测两个标准预训练任务对数学资源进行预训练,预训练完成后,每个符号均可得到富含上下文信息的嵌入向量表示。

    一种基于人体姿态的动作识别方法及装置

    公开(公告)号:CN109117893A

    公开(公告)日:2019-01-01

    申请号:CN201810988873.6

    申请日:2018-08-28

    Abstract: 本发明提供了一种基于人体姿态的动作识别方法及装置,其中的方法包括:通过改进的限幅滤波算法得到的滤波后的骨骼数据,通过改进的角度计算方法获得角度特征,对分好类的角度特征基于逻辑回归进行训练,得到训练后的分类器,再通过分类器得到对人体静态姿势的识别结果,最后根据静态姿势的识别结果采用倒序法识别出人体的动作。本发明实现了提升识别速度和提高识别准确性的技术效果。

    一种自然语言文本和数学语言文本的混合词嵌入方法

    公开(公告)号:CN114818698B

    公开(公告)日:2024-04-16

    申请号:CN202210469691.4

    申请日:2022-04-28

    Abstract: 本发明提供了一种自然语言文本和数学语言文本的混合词嵌入方法,包括:对混合文本进行识别和预处理,得到由文本和数学表达式组成的数学资源数据集;对具有树形结构的数学表达式进行位置编码,保持树形结构的相对位置平移不变;对具有线性结构特征的文本和具有树形结构特征的数学表达式进行统一位置编码;将相对位置编码送入预训练模型的注意力模块,采用掩蔽语言模型和下句预测两个标准预训练任务对数学资源进行预训练,预训练完成后,每个符号均可得到富含上下文信息的嵌入向量表示。

    基于RepSurf特征和信息交互的部分重叠点云配准方法

    公开(公告)号:CN118447060A

    公开(公告)日:2024-08-06

    申请号:CN202410469197.7

    申请日:2024-04-18

    Abstract: 本发明属于计算机技术领域,涉及基于RepSurf特征和信息交互的部分重叠点云配准方法,包括:提取RepSurf局部表面特征对点云进行表示;得到伞形RepSurf特征;构造图神经网络模型,得到拓扑特征;将三角形RepSurf特征与拓扑特征进行特征拼接;基于注意力交互机制进行信息交互;预测重要性分数,确定关键点;基于卷积神经网络模型预测相似性矩阵;计算相似性矩阵损失,去除相似性矩阵损失小于设定值的点。本发明得到了表示性强且区分度高的特征信息;基于信息交互的关键点提取方法;通过注意力机制,使得关键点提取部分可以过滤掉部分点,避免产生大量错误匹配,提高了网络在部分重叠点云上的配准效果。

    一种手势识别方法
    7.
    发明授权

    公开(公告)号:CN107038424B

    公开(公告)日:2019-12-24

    申请号:CN201710263069.7

    申请日:2017-04-20

    Abstract: 本发明属于手势识别技术领域,涉及一种手势识别方法,包括如下步骤:通过Kinect实时获取深度图像序列;通过Kinect实时获取手掌中心和手肘中心的位置,并根据每帧图像的深度信息提取手部轮廓;根据手掌中心位置、手肘中心位置和手部轮廓,计算指尖位置和指根位置,提取特征;将步骤3中提取的特征和模板库中的手势特征进行匹配,进入分类器,按分类器的分类标准选择出最接近的手势为识别出的手势,并将每一帧识别出的手势保存在队列Q中;分析队列Q中该帧和之前四帧的识别结果,选取出现数量最多的手势,作为最终识别结果。本发明使用Kinect获取深度信息,结合数字图像分析技术,能够快速准确的识别操控者的手势。

    一种面向静态多人场景的学习状态混合分析方法

    公开(公告)号:CN110287790A

    公开(公告)日:2019-09-27

    申请号:CN201910434931.5

    申请日:2019-05-23

    Abstract: 本发明提出一种面向静态多人场景的学习状态混合分析方法。在课堂开始,这时学生专注度高度集中,本发明使用对于正面人脸检速度快且精度高的算法检测出人脸并估计的出学生的静态位置区域,接下来对学生静态位置生命值和hit值进行判断,进而调用对于侧面人脸检测精度高的算法,通过这种双层人脸检测极大的提高了对于教室这一静态多人场景中人脸检测的精度,并且保证了运算速度。对于识别获得的学生的头部姿态和面部表情,本发明通过将学生的头部姿态与周围学生的头部姿态进行对比计算,得到学生的专注度;并对学生表情进行多个分类,表情分类的多样化和学生专注度的计算能够提高多模态特征分析模块分析结果的可靠性。

    一种基于TransUnet架构的影像自监督学习方法

    公开(公告)号:CN115331073A

    公开(公告)日:2022-11-11

    申请号:CN202210882058.8

    申请日:2022-07-26

    Abstract: 本发明公开了一种基于TransUnet架构的影像自监督学习方法,该方法在TransUnet架构的基础上,通过掩码自编码方式构建全新的影像自监督学习方法,通过在成本低、无需标注的原始影像上进行自监督训练,获得高质量的影像高阶特征,以此来大幅减轻下游任务的训练难度。为验证方法的有效性,采用建筑物提取数据集进行了影像自监督学习实验,并将其应用到建筑物提取的下游任务,结果表明:由于充分结合了CNN和Transformer各自优势,本发明具有收敛速度快、计算量小、鲁棒性强等优点,在遥感、医疗等领域的小数据集上可以显著提高精度,节省数据集的使用并降低人工标注成本。

    一种面向静态多人场景的学习状态混合分析方法

    公开(公告)号:CN110287790B

    公开(公告)日:2021-04-02

    申请号:CN201910434931.5

    申请日:2019-05-23

    Abstract: 本发明提出一种面向静态多人场景的学习状态混合分析方法。在课堂开始,这时学生专注度高度集中,本发明使用对于正面人脸检速度快且精度高的算法检测出人脸并估计的出学生的静态位置区域,接下来对学生静态位置生命值和hit值进行判断,进而调用对于侧面人脸检测精度高的算法,通过这种双层人脸检测极大的提高了对于教室这一静态多人场景中人脸检测的精度,并且保证了运算速度。对于识别获得的学生的头部姿态和面部表情,本发明通过将学生的头部姿态与周围学生的头部姿态进行对比计算,得到学生的专注度;并对学生表情进行多个分类,表情分类的多样化和学生专注度的计算能够提高多模态特征分析模块分析结果的可靠性。

Patent Agency Ranking