基于视觉行为分析的发展协调障碍单手精细动作评估方法

    公开(公告)号:CN119229525A

    公开(公告)日:2024-12-31

    申请号:CN202411258532.5

    申请日:2024-09-09

    Abstract: 本发明公开了一种基于视觉行为分析的发展协调障碍单手精细动作评估方法,主要解决现有发展性协调障碍单手精细动作评估方法客观性不足,准确性差以及泛化性低的问题。其实现方案是:构建标准插钉子任务视频数据集并将其划分为训练数据集与测试数据集;构建第一阶段的重复动作定位网络F1,用于对视频中的重复动作进行定位;构建第二阶段的时序区域网络F2,用于对定位出的动作片段进行评估;使用训练数据集通过梯度下降分别对F1和F2这两个网络进行训练;将测试数据集分别输入到训练好的这两个网络中得到评估结果。本发明通过基于视觉的评估方法,实现了单手精细动作的细粒度评估,有效提高了评估准确性和效率,可用于发展性协调障碍DCD的大规模筛查。

    基于主题引导的Transformer的遥感图像字幕生成方法

    公开(公告)号:CN115035508B

    公开(公告)日:2024-09-27

    申请号:CN202210689905.9

    申请日:2022-06-17

    Abstract: 本发明公开了一种基于主题引导的Transformer遥感图像字幕生成方法,主要解决现有技术生成的描述单一,且无法精确表示图像中的语义信息的问题。其实现方案为:搭建一个由Transformer和主题向量组成的主题编码器,并在分类数据集上进行预训练;搭建一个由随机掩码层、嵌入层、Transformer解码器和soft‑max层级联组成的语义解码器;将主题编码器和语义解码器进行连接,得到遥感图像字幕生成网络;设置训练参数,用标准RSICD数据集迭代训练遥感图像字幕生成网络;利用训练好的遥感图像字幕生成网络生成字幕描述。本发明提高了生成描述的多样性和准确性,可用于地物图像检索、灾情预测、图像理解。

    基于属性学习的未知场景遥感图像字幕生成方法

    公开(公告)号:CN117152303A

    公开(公告)日:2023-12-01

    申请号:CN202311075484.1

    申请日:2023-08-25

    Abstract: 本发明公开了一种基于属性学习的未知场景遥感图像字幕生成方法,主要解决现有方法只能产生在训练过程中出现过的词语和句子,不能对未知的场景进行准确描述的问题。其实现方案是:搭建一个属性提取器、设置一个可学习的属性标识向量A,并在多标签分类数据集上进行预训练;搭建由属性推理模块和主体词生成模块构成的基于属性学习的解码器;将主题编码器、属性提取器、基于属性学习的解码器级联,构成基于属性学习的未知场景遥感图像字幕生成网络,并对其进行迭代训练;将测试集遥感图像输入到训练好的字幕生成网络生成字幕描述。本发明提高了未知场景下遥感图像的描述准确率,能适应遥感图像的多种场景,可用于地物图像检索、灾情预测及图像理解。

    基于局部和全局区域策略对抗学习的人脸老化方法

    公开(公告)号:CN116993578A

    公开(公告)日:2023-11-03

    申请号:CN202310941541.3

    申请日:2023-07-28

    Abstract: 本发明公开了一种基于局部和全局区域策略对抗学习的人脸老化方法,主要解决现有技术使用对抗网络不能够生成具有明显衰老特征的老化人脸问题。其实现方案是:使用人脸关键点识别技术对人脸数据进行检测、对齐和裁剪,并将其划分为训练集和测试集;对训练集和测试集的对每张图片赋予对应的年龄标签;分别构建人脸生成模型、人脸面部总损失及基于个人身份特征的损失函数;采用对抗训练的方法对人脸生成模型进行训练直至面部总损失和特征损失函数收敛;将测试集中的人脸图像加载到训练好的人脸生成模型中生成各年龄阶段的人脸图像。本发明提高了年龄跨度较大的人脸生成图像的衰老特征,可用于协助警察对疑犯踪迹查找、长时间失踪儿童找回及医学整形。

    基于跨模态特征增强与置信融合的多光谱行人检测方法

    公开(公告)号:CN116311364A

    公开(公告)日:2023-06-23

    申请号:CN202310211007.7

    申请日:2023-03-07

    Abstract: 本发明公开了基于跨模态特征增强与置信融合的多光谱行人检测方法,主要解决现有技术在单模态条件下行人检测漏检率和虚警率较高的问题。其实现方案为:获取可见光图像和红外图像构成数据集,并按8:2的比例将其化分为训练集和测试集;构建由交互共有注意力模块、池化层多尺度自适应融合模块及置信度融合模块依次级联构成的双流行人检测网络;使用训练集通过小批量梯度下降对该双流行人检测网络进行训练,直至网络损失收敛;将测试集输入到训练好的网络中得到多光谱行人检测结果。本发明相较于其他行人检测方法,充分考虑了模态之间的交互关系,降低了漏检率和虚警率,提高了行人检测的准确率,可用于处理复杂环境下的行人目标检测。

    基于分割图引导与正则约束的手部姿势与形状估计方法

    公开(公告)号:CN116152199A

    公开(公告)日:2023-05-23

    申请号:CN202310153013.1

    申请日:2023-02-23

    Abstract: 本发明公开了一种基于分割图引导与正则约束的手部姿态与形状估计方法,主要解决现有技术在手物遮挡情况下估计结果准确率较低的问题。其实现方案是:将数据集划分为训练数据集与测试数据集;构建由特征提取主干、正则约束金字塔模块、分割引导模块以及回归模块构成的基于分割图引导与正则约束的手部姿势与形状估计网络;使用训练数据集对该网络进行训练;将测试数据集输入到训练好的网络中得到手部估计结果。本发明通过引入分割引导模块以利用不同可见度的手部分割图辅助手物遮挡下的估计,并通过引入正则约束金字塔模块对网络特征进行约束,相较于现有手部姿势与形状估计方法,显著提高了手部估计效果,可用于手部图像解译的中间处理。

    基于MOUNT模型的手持超声视频探针追踪方法

    公开(公告)号:CN119273623A

    公开(公告)日:2025-01-07

    申请号:CN202411207765.2

    申请日:2024-08-30

    Abstract: 本发明公开了一种基于MOUNT模型的手持超声视频探针追踪方法,主要解决现有技术中由于没有考虑探针形状纤细、相邻帧之间不均匀运动和较低的探针可见性,导致探针追踪性能较差的问题。其实现方案为:获取肝肿瘤消融过程超声视频数据集;构建手持超声视频探针追踪网络MOUNT;对手持超声视频探针追踪网络MOUNT进行迭代训练;使用训练好的MOUNT网络对测试集进行测试,得到预测候选结果集合;对预测候选结果集合进行筛选优化的后处理操作,得到探针入口点和针尖坐标,完成对探针的追踪。本发明关注了手持超声视频探针追踪任务的独特特征,有效提升了手持超声视频探针追踪的准确性,可用于对肝肿瘤消融手术中的探针实时跟踪。

    基于自监督特征小样本学习的多器官分割方法

    公开(公告)号:CN113706487B

    公开(公告)日:2024-09-06

    申请号:CN202110944404.6

    申请日:2021-08-17

    Abstract: 本发明公开了一种基于自监督特征小样本学习的多器官分割方法,主要解决现有技术使用小样本学习分割法进行多器官分割效果差的问题。其方案是:使用超像素分割法从初始数据集中生成大量包含伪标签的数据,并从中选择图像和伪标签作为支持集;采用数据增强法生成查询集;使用自监督特征学习通过预训练的编码器提取支持集和查询集的图像特征,再计算两者的相似度获得前景信息和先验概率辅助信息特征图;构建分割网络对前景信息进行特征精炼得到支持集原型;根据支持集原型与先验概率辅助信息特征图计算分类概率,获得分割结果。本发明减少了大目标器官的过分割和欠分割现象,提升了小目标器官的识别,可用于医学图像的多器官分割,协助医生诊断疾病。

Patent Agency Ranking