-
公开(公告)号:CN112597956B
公开(公告)日:2023-06-02
申请号:CN202011607985.6
申请日:2020-12-30
Applicant: 华侨大学 , 福建省公田软件股份有限公司
Abstract: 本发明提供一种基于人体锚点集合与感知增强网络的多人姿态估计方法,包括:步骤1、构建感知增强网络,并利用训练数据集进行网络训练和调优;步骤2、对一张待测试图片,首先将该图片输入感知增强网络中进行关节检测热图和锚点嵌入热图的检测,接着基于这两类热图进行算法的后处理过程,得到多人的姿态估计结果。本发明的优点在于:基于人体划分的思想,通过将多人姿态估计任务划分为上下两个半身的姿态估计子任务,能够有效降低检测任务的建模难度;结合注意力机制与特征融合策略构建感知增强网络,能够充分挖掘神经网络模型的特征提取能力,最终得到更加精确的多人姿态估计结果。
-
公开(公告)号:CN111489324B
公开(公告)日:2023-03-03
申请号:CN202010506330.3
申请日:2020-06-05
Applicant: 华侨大学 , 福建省公田软件股份有限公司
IPC: G06T5/50 , G06T7/00 , G06T7/11 , G06T7/40 , G16H30/40 , G06V10/774 , G06N3/0464
Abstract: 本发明提供了医学图像处理领域的一种融合多模态先验病理深度特征的宫颈图像分类方法,包括:步骤S10、获取宫颈图像、病理确诊数据、标注信息;步骤S20、将宫颈图像以及标注信息输入深度神经网络模型训练,生成一阶段训练结果;步骤S30、基于病理确诊数据以及一阶段训练结果,采用小网络分别对宫颈图像进行编码后,二阶融合一阶段训练结果后输入深度神经网络模型训练,生成二阶段训练结果;步骤S40、确定主干网络参数,并利用主干网络参数输入深度神经网络模型对宫颈图像进行递进迁移训练,生成三阶段训练结果;步骤S50、利用三阶段训练结果对宫颈图像进行分类。本发明的优点在于:极大的提升了宫颈癌病变诊断的准确性以及效率。
-
公开(公告)号:CN114567651A
公开(公告)日:2022-05-31
申请号:CN202111677668.6
申请日:2021-12-31
Applicant: 福建省公田软件股份有限公司
IPC: H04L67/12 , H04L43/045 , H04L69/18 , G16Y10/75
Abstract: 本发明涉及物联网技术领域,提供一种设备与物联网平台的快速可视化接入方法,包括以下步骤:S1.在设备接入管理服务器内建立设备接入平台、设备数据库、通讯协议格式选择模块、设备可视化接入窗口和设备信息解析与编辑模块;S2.通讯协议格式选择模块选择预接入设备的对应通讯协议格式,再由设备可视化接入窗口将厂商发送的预接入设备的设备信息以数据流方式保存成预接入设备数据包发送至设备信息解析与编辑模块;S3、设备信息解析与编辑模块将该首次接入新类型设备的设备信息数据以自定义方式新创建该首次接入新类型设备的设备信息数据并存储至设备数据库。本发明解决了现有设备接入物联网平台过程繁复、缺乏简单高效接入的问题。
-
公开(公告)号:CN112668545A
公开(公告)日:2021-04-16
申请号:CN202110031499.2
申请日:2021-01-11
Applicant: 华侨大学 , 福建省公田软件股份有限公司
Abstract: 本发明提供了人体姿态估计技术领域的一种基于人体树状网络和不同激活域值的姿态估计方法,包括如下步骤:步骤S10、搭建人体树状网络;步骤S20、分别设置各关节的激活域值,基于所述激活域值生成训练标签;生成各关节的偏移热图标签;利用所述训练标签以及偏移热图标签对人体树状网络进行训练;步骤S30、将人体图像输入训练后的所述人体树状网络,计算得到各关节之间的亲属度;基于所述亲属度计算得到所述人体图像中每个人的完整姿态。本发明的优点在于:极大的提升了人体姿态估计的精度。
-
公开(公告)号:CN110427890A
公开(公告)日:2019-11-08
申请号:CN201910716198.6
申请日:2019-08-05
Applicant: 华侨大学 , 福建省公田软件股份有限公司
Abstract: 本发明提供一种基于深度级联网络与质心分化编码的多人姿态估计方法,其采用自底向上的估计路线,针对现有算法尚不能解决的关节遮挡及尺度差异问题,设计出质心分化编码作为关节的相关性线索,并建立基于双路特征提取模块的深度级联网络完成对关节点与质心分化编码的提取,接着提出贪婪推理策略实现关节点鲁棒匹配到多个人体半身,最后对半身之间添加空间约束,利用图匹配算法完成人体拼接,实现快速高效的多人姿态估计。
-
公开(公告)号:CN113420676B
公开(公告)日:2023-06-02
申请号:CN202110709283.7
申请日:2021-06-25
Applicant: 华侨大学 , 福建省公田软件股份有限公司
Abstract: 本发明提供了3D人体姿态估计技术领域的一种二路特征交错融合网络的3D人体姿态估计方法,包括如下步骤:步骤S10、创建同级关节的第一邻接矩阵以及跨关节的第二邻接矩阵;步骤S20、基于所述第一邻接矩阵以及第二邻接矩阵创建一局部联系特征提取规则;步骤S30、创建一全局联系特征提取规则;步骤S40、利用所述局部联系特征提取规则以及全局联系特征提取规则进行特征提取后,进行交错汇总,并回归计算出3D人体骨架,完成3D人体姿态估计。本发明的优点在于:极大的提升了3D人体姿态估计的精度。
-
公开(公告)号:CN112668545B
公开(公告)日:2023-06-02
申请号:CN202110031499.2
申请日:2021-01-11
Applicant: 华侨大学 , 福建省公田软件股份有限公司
IPC: G06V40/20 , G06V40/10 , G06V10/44 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了人体姿态估计技术领域的一种基于人体树状网络和不同激活域值的姿态估计方法,包括如下步骤:步骤S10、搭建人体树状网络;步骤S20、分别设置各关节的激活域值,基于所述激活域值生成训练标签;生成各关节的偏移热图标签;利用所述训练标签以及偏移热图标签对人体树状网络进行训练;步骤S30、将人体图像输入训练后的所述人体树状网络,计算得到各关节之间的亲属度;基于所述亲属度计算得到所述人体图像中每个人的完整姿态。本发明的优点在于:极大的提升了人体姿态估计的精度。
-
公开(公告)号:CN112241726B
公开(公告)日:2023-06-02
申请号:CN202011188660.9
申请日:2020-10-30
Applicant: 华侨大学 , 福建省公田软件股份有限公司
IPC: G06V40/20 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08 , G06T5/30 , G06T7/62
Abstract: 本发明提供了人体姿态估计技术领域的一种基于自适应感受野网络和关节点损失权重的姿态估计方法,包括:步骤S10、基于自适应感受野单元搭建自适应感受野网络;步骤S20、利用样本图像对所述自适应感受野网络进行训练;步骤S30、在训练所述自适应感受野网络时,计算得到所述样本图像包含的关节点以及各关节点的损失值;步骤S40、基于各关节点的所述损失值计算各关节点的损失权重;步骤S50、基于所述损失权重以及损失值计算得到最终损失值,基于所述最终损失值优化自适应感受野网络;步骤S60、将待测图像输入训练好的所述自适应感受野网络,计算关节点的位置并形成完整的人体姿态。本发明的优点在于:极大的提升了人体姿态估计的精度和效率。
-
公开(公告)号:CN115223237A
公开(公告)日:2022-10-21
申请号:CN202210120713.6
申请日:2022-02-09
Applicant: 华侨大学 , 福建省公田软件股份有限公司
Abstract: 本发明公开一种基于关节权重旋转的人体姿态估计方法及系统,涉及3D人体姿态估计技术领域,包括:获取人体关节的关节二维坐标;将多个所述关节二维坐标输入至第一旋转权权重组件,以计算第一关节特征;将所述第一关节特征输入至旋转权重残差模块,以得到第二关节特征;将所述第二关节特征输入至第二旋转权重组件,以得到关节三维坐标;其中,所述旋转权重残差模块包括多个旋转权重残差子模块,所述旋转权重残差子模块、所述第一旋转权重组件和所述第二旋转权重组件均至少包括一个旋转权重组件。本发明提高了二维姿态到三维姿态转换的精度和速度。
-
公开(公告)号:CN113420676A
公开(公告)日:2021-09-21
申请号:CN202110709283.7
申请日:2021-06-25
Applicant: 华侨大学 , 福建省公田软件股份有限公司
Abstract: 本发明提供了3D人体姿态估计技术领域的一种二路特征交错融合网络的3D人体姿态估计方法,包括如下步骤:步骤S10、创建同级关节的第一邻接矩阵以及跨关节的第二邻接矩阵;步骤S20、基于所述第一邻接矩阵以及第二邻接矩阵创建一局部联系特征提取规则;步骤S30、创建一全局联系特征提取规则;步骤S40、利用所述局部联系特征提取规则以及全局联系特征提取规则进行特征提取后,进行交错汇总,并回归计算出3D人体骨架,完成3D人体姿态估计。本发明的优点在于:极大的提升了3D人体姿态估计的精度。
-
-
-
-
-
-
-
-
-