-
公开(公告)号:CN119785261A
公开(公告)日:2025-04-08
申请号:CN202411855121.4
申请日:2024-12-17
IPC: G06V20/40 , G06T7/269 , G06V10/82 , G06N3/0464 , G06N3/0985 , G06N3/084 , G06N3/0455
Abstract: 本发明提供了一种视频异常检测的少样本微调框架构建方法包括:构建基于辅助任务的少样本场景视频异常检测微调框架,分割视频中容易出现异常的目标,同时预测出光流图。通过分割和光流估计这两个辅助任务提取丰富的时空特征促进异常检测模型微调到新场景;采用三阶段的训练策略,对于辅助任务网络的三个部分:分割分支网络、光流分支网络和分割与光流信息融合模块,在三个训练阶段分别训练其中一个部分,而冻结其余两个部分的参数,从而降低训练过程的不稳定性。该视频异常检测的少样本微调框架构建方法及构建系统将视频的分割目标与光流信息有效结合,具有微调效率高、成本低、易于实现、且部署灵活等特点。
-
公开(公告)号:CN118071688A
公开(公告)日:2024-05-24
申请号:CN202410114418.9
申请日:2024-01-29
IPC: G06T7/00 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及医学技术领域,且公开了一种在造影过程中实时进行造影质量评估的方法,能够辅助医生进行造影质量控制。该实时脑血管造影质量评估方法,排除了背景对质量评估的影响,同时,针对DSA血管造影的分割难点,参考Transformer的全局特征提取优势,网络引入了基于窗口的局部‑全局自注意力机制,在保证线性复杂度的同时,更加关注整个血管结构各部分的关联性,有效提高了分割精度,另外设计了特征聚合模块,基于注意力方式过滤编码器特征,使得特征聚合更加高效;同时,方法结合造影临床质量评价指标,依据造影图像质量分类数据集,确定了质量分类的指标,采用自动化方法定位图像质控点,并采用随机森林进行质量评估。
-
公开(公告)号:CN116129293A
公开(公告)日:2023-05-16
申请号:CN202310108884.1
申请日:2023-02-11
IPC: G06V20/17 , G06V10/20 , G06V10/44 , G06V10/762 , G06V10/82 , G06N3/0464
Abstract: 本发明涉及无人机目标检测技术领域,且公开了一种基于无人机的车辆实时检测方法,本方法是在Jetson tx2设备上进行测试,首先将训练好的模型转为onnx格式,然后使用TensoRT的API接口编写转化脚本,将onnx格式文件转为engine格式文件进行推理测试。该基于无人机的车辆实时检测方法是一种在Jetson TX2边缘运算设备上部署目标检测算法来进行无人机的车辆实时目标检测的技术,通过Ghost模块和Coordinate Attention注意力机制设计主干特征提取网络,既大幅降低主干模型部分的参数量,又在轻量化的基础上增强了主干网络提取特征信息的能力,整体相比于原本的YOLOv3模型保留了较高的检测精度,实现了边缘运算设备检测速度与检测精度很好的平衡,达到对模型轻量化的目的。
-
公开(公告)号:CN115937713A
公开(公告)日:2023-04-07
申请号:CN202211354061.9
申请日:2022-11-01
IPC: G06V20/17 , G06V10/774 , G06V10/764
Abstract: 本发明公开了一种在线目标检测方法,包括以下步骤:S1、建立训练模型;S2、模型训练测试;S3、ImageNet‑1K分类数据集划分;S4、COCO‑2017目标检测数据集划分;S5、ImageNet‑1K分类结果验证;S6、COCO‑2017分类结果验证。本发明通过使用门函数为每个Transformer网络层动态地选择注意力,在模型的结构层面上,使用了从局部到全局的动态自注意力模式,使模型能够生成关注不同尺度对象的特征图,充分挖掘图像中所有尺度物体的信息。
-
公开(公告)号:CN119672422A
公开(公告)日:2025-03-21
申请号:CN202411746529.8
申请日:2024-12-02
IPC: G06V10/764 , G06V10/82 , G06V10/80 , G06N3/0455 , G06N3/0464 , G06N3/098
Abstract: 本发明涉及一种专家注视点引导的基于视觉Transformer的胸片分类模型构建方法,属于胸片图像领域,构建专家注视点引导的基于视觉Transformer的胸片分类模型,能够利用专家注视点信息指导模型关注胸片中的潜在疾病区域;采用混合学习策略,通过在训练时选择一部分胸片图像样本及相应的专家注视点作为输入,而另一部分仅用胸片图像作为输入,使得模型可在推理阶段只需要胸片图像作为输入,采用包含专家注视点的胸片分类数据集,并基于其中专家注视点标注生成嵌入向量,完成对视觉Transformer的胸片分类模型的端到端训练。该构建系统、应用方法、终端及介质,将专家注视点特征与图像特征有效结合,具有预测效率高、成本低、易于实现、并且部署十分灵活等特点。
-
公开(公告)号:CN119131869A
公开(公告)日:2024-12-13
申请号:CN202411311178.8
申请日:2024-09-20
IPC: G06V40/16 , G06V40/18 , G06V10/774 , G06V10/25 , G06V10/766 , G06F17/14 , G06V10/82 , G06N3/0464
Abstract: 本发明提供了一种多任务视线估计模型的构建方法,包括;构建基于频域与空域交互的多任务视线估计模型。该多任务视线估计模型的构建方法,通过傅里叶变换在频域有效地实现具有图像大小的感受野的卷积,能够捕获全局依赖性以更好地利用图像中的小而复杂的局部特征;采用多任务学习策略,通过同时训练多个相关任务,使得模型能够共享不同任务之间的有用信息,从而提升每个任务的性能;采用已知的视线估计数据集,并基于其中的左右眼眼角标注生成的代表人眼区域的显著性图,完成对所述基于频域与空域交互的多任务视线估计模型的端到端训练;采用已知的视线估计数据集中的测试图像对训练后的基于频域与空域交互的多任务视线估计模型进行测试。
-
公开(公告)号:CN118469956A
公开(公告)日:2024-08-09
申请号:CN202410612208.2
申请日:2024-05-17
IPC: G06T7/00 , G06V10/82 , G06V10/774 , G06V10/26 , G06V10/44 , G06V10/42 , G06V10/80 , G06V10/52 , G06V10/766 , G06V10/764 , G06N3/0455 , G06N3/0464 , G06N3/0985 , G06N3/096
Abstract: 本发明涉及一种基于多任务学习的脑血管造影质量评估模型,属于脑血管领域,基于血管分割与质量评估任务间相关性,设计了一个基于MTL的脑血管造影图像质量评估网络以及相应的联合损失函数,总体结构可以看作U‑Net加一个量化分支,网络采用硬参数共享的方式,分割与量化任务共享下采样的特征提取主干U‑Net编码器,在训练过程中通过联合损失函数共同更新主干参数,隐式地利用了任务间相关性。基于共享的主干特征,上采样的分割分支(U‑Net解码器)输出分割结果,额外添加的量化分支结合分割结果和主干特征预测量化评分,显示地利用了任务间相关性,在量化分支上,首先通过卷积网络提取分割得到的血管图像特征,随后采用了并行输出机制。
-
公开(公告)号:CN118245900A
公开(公告)日:2024-06-25
申请号:CN202410424845.7
申请日:2024-04-10
IPC: G06F18/2411 , G06F18/21 , G16H50/20 , G06F18/10
Abstract: 本发明涉及一种阑尾炎分类算法,属于阑尾炎领域,包括采集医院的数据,然后进行数据清洗和取值,然后在取值时惩罚参数C取10,核函数的系数gamma为0.01,和核函数类型kerne l”rbf”得到计算结果,进入验证将数据集分成10个相等的子集,然后依次选取其中一个子集作为验证集,其余的子集作为训练集,重复这个过程10次,每次都使用不同的验证集。该阑尾炎分类算法,该算法采用支持向量机进行分类,K折交叉验证技术进行准确度验证,通过参数网络选定最优参数后,采用支持向量机对选定特征值进行分类,并用K折交叉验证技术验证算法准确度。该算法的设计和实施可以有效提高急性阑尾炎分类效率和准确度,帮助医生指定更精准的治疗方案。
-
公开(公告)号:CN117478949A
公开(公告)日:2024-01-30
申请号:CN202311307902.5
申请日:2023-10-11
IPC: H04N21/439 , H04N21/44 , G06F18/24 , G06F18/25 , G06F18/214 , G06N3/0895 , G06V40/18 , G06V40/20 , G10L15/16 , G06V10/764 , G06V10/82 , G06V10/774 , G06V10/762
Abstract: 本发明提供了一种多模态架构的视听觉注意力预测模型的构建方法,针对视频这一种含有多感官刺激的媒介,包括:构建多模态架构的视听觉注意力预测模型,能够获取视频中音频特征以及图像静态和动态显著性特征;采用已知的图像眼动数据集对图像级的视觉注意力预测模型进行端到端预训练,将训练好的模型作为视听觉注意力模型的图像显著性特征提取层,将图像级的显著性信息融入到视听觉注意力预测模型当中;采用大数据预训练音频分类网络以及视频分类网络作为音频和视频的特征提取网络,通过自监督架构的音频和视觉特征融合模块充分融合两种模态的特征。该一种多模态架构的视听觉注意力预测模型的构建方法将视频的音频和图像时空特征有效结合,具有预测效率高,成本低,易于实现,并且部署十分灵活等特点。
-
公开(公告)号:CN116741336A
公开(公告)日:2023-09-12
申请号:CN202310324751.8
申请日:2023-03-30
IPC: G16H20/30 , A61B5/16 , A61B5/00 , G06V40/16 , G06V40/18 , G06V10/30 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明涉及康复训练技术领域,且公开了一种脑卒中病人康复训练专注度分析方法,包括以下步骤:步骤S1:构建脑卒中病人头部及面部图像数据集,采集资料,将采集到的视频利用OpenCV等工具进行人脸识别,进行相关处理;步骤S2:头部姿态估计,步骤S3:视线估计,步骤S4:专注度分析。该脑卒中病人康复训练专注度分析方法,通过采集脑卒中病人进行机器人辅助康复训练时的面部视频,识别视频中的人脸图像并逐帧截取出来,进行相关的图像增强、滤波等处理,构成脑卒中病人头部及面部数据集,将基于深度学习的头部姿态估计和视线估计方法引入脑卒中病人康复训练专注度研究中,在新建数据集上进行训练测试,并在公共数据集上做对比试验,并取得了良好的效果。
-
-
-
-
-
-
-
-
-