一种基于多任务图神经网络的分子属性预测方法

    公开(公告)号:CN119230006A

    公开(公告)日:2024-12-31

    申请号:CN202411275784.9

    申请日:2024-09-12

    Abstract: 本发明公开了一种基于多任务图神经网络的分子属性预测方法,首先根据场景确定分子属性预测任务;然后根据确定的任务选择相关训练数据并进行预处理;针对每个任务搭建使用图神经网络训练;再结合所有任务,组成多任务图神经网络,确定全局目标损失函数;最后基于预处理后的数据对多任务图神经网络进行训练,得到最优的图神经网络模型。本发明针对分子结构相关的图数据保持良好的学习效率,在预测分子结构全局或者局部性质上有良好的表现。本发明提升了分子结构的预测速度和效率,相比较传统方法有着较大提升,是深度学习和分子结构预测的良好融合。

    一种基于参数取值选择的视频结构化分析系统软硬协同优化方法

    公开(公告)号:CN119094810A

    公开(公告)日:2024-12-06

    申请号:CN202411075832.X

    申请日:2024-08-07

    Abstract: 本发明属于视频分析技术领域,公开了一种基于参数取值选择的视频结构化分析系统软硬协同优化方法,包括步骤1:多模块算法控制参数和实现参数集构建;基于业界主流的YOLO+byteTrack+ResNet+SIFT CDVS特征视频结构化分析系统框架,结合异构多计算平台的编码算法特点和流水约束,为各模块选择硬件实现友好的算法框架;步骤2:多模块耦合参数优化取值选择;根据流水吞吐约束,通过一定并发粒度和并发强度的控制参数配置,实现系统吞吐和硬件消耗的平衡。本发明支持六个算法模块联合优化,支持码率、计算复杂度、算法精度以及系统处理检索延时等目标性能联合优化;实现多个算法模块多目标性能联合优化。

    一种基于人体特征紧凑表示的视频压缩方法

    公开(公告)号:CN119011840A

    公开(公告)日:2024-11-22

    申请号:CN202410948218.3

    申请日:2024-07-16

    Abstract: 本发明属于视频编码领域,公开了一种基于人体特征紧凑表示的视频压缩方法,包括步骤1:构建人体视频压缩框架;使用人体骨架特征来表征运动,首先将提取出的骨架特征通过人体特征压缩算法压缩冗余,与参考帧一同传输到解码端;之后恢复成原骨架,与重构的参考帧一起输入到生成网络中生成预测帧;最后输入到残差优化模块中进一步提升质量;步骤2:设计人体特征压缩算法;步骤3:特征残差编码优化;首先通过特征提取器提取预测帧和原始帧的深度特征,之后计算深度特征之间的残差,输入到上下文编码器当中,在熵模型的优化下进一步降低比特率。本发明极大提高了人体骨架信息的压缩率;能够以较低的比特流生成主观与客观质量良好的重构人体视频。

    基于乳腺癌病理切片图像的肿瘤细胞提取方法

    公开(公告)号:CN118570121A

    公开(公告)日:2024-08-30

    申请号:CN202410505389.9

    申请日:2024-04-25

    Abstract: 本发明公开了基于乳腺癌病理切片图像的肿瘤细胞提取方法。本发明通过阈值分割,边缘检测、区域生长等算法的结合实现对单个细胞的提取,将颜色空间转换和阈值分割进行结合对图像进行处理,解决图像分割效果不佳的问题,通过边缘检测能够得到清晰的肿瘤边界,并通过区域生长算法能够实现细胞级别的分割,在区域算法之前对图像进行填充处理,对孔洞进行填充,解决区域内有孔洞,对于细胞图像难以有效分割的问题,最后通过形态学处理消除杂质,得到单个细胞,实现肿瘤细胞提取,整个过程快速、准确、简便。

    基于背景分离的RGB-D视频合成视点空洞掩盖方法

    公开(公告)号:CN115426535B

    公开(公告)日:2024-08-27

    申请号:CN202211065539.6

    申请日:2022-09-01

    Abstract: 本发明方法公开了基于背景分离的RGB‑D视频合成视点空洞掩盖方法。本发明方法以参考彩色图、参考深度图和相机信息为单位,利用加入并行注意力的P‑UNet网络分离彩色图前景、根据参考深度图前景与背景之间的像素突变分离前景,将两种方法的背景结合并使用高斯混合模型构建更干净的背景;使用基于深度和时间一致性的修复方法修复背景;然后根据3D变换公式和相机信息绘制出虚拟视点和虚拟背景,并再次修复虚拟背景;最后使用虚拟背景填充虚拟视点空洞中的缺失像素。本发明避免了修复时产生前景渗透,生成的空洞区域在相邻帧之间更有时间一致性,减少视频播放时的帧闪,提高了视觉质量。

    一种基于生成对抗网络的自适应噪声模型训练方法及系统

    公开(公告)号:CN118196549A

    公开(公告)日:2024-06-14

    申请号:CN202410136132.0

    申请日:2024-01-31

    Abstract: 本发明公开了一种基于生成对抗网络的自适应噪声模型训练方法;首先进行数据集构建,数据集由干净/有噪声图像对组成;然后构建GANs网络,GANs网络包括噪声生成器和鉴别器:最后通过构建的数据集对构建的噪声生成器和鉴别器进行训练。本发明能够自动学习适合不同任务和数据集的参数,消除了传统手动调整和优化方法的主观性和低效性。通过自我更新和反馈机制,本发明方法能够提供更高效且鲁棒的噪声模型,为计算机视觉、语音处理等领域的应用提供了更好的解决方案。

    面向3D视频的时间空间双维度帧合成方法

    公开(公告)号:CN117880482A

    公开(公告)日:2024-04-12

    申请号:CN202311556130.9

    申请日:2023-11-21

    Abstract: 本发明公开了面向3D视频的时间空间双维度帧合成方法。本发明首先对输入视频中的每帧原始输入图像通过特征提取网络提取特征信息,生成多个不同尺度下的特征图;然后对输入视频在时间维度进行插帧操作,生成时间维度插帧图像,在视点维度进行插帧操作,生成视点维度合成图像;最后通过维度融合网络,将原始输入图像以及对应的特征图、生成的光流信息和掩膜、时间维度插帧图像和视点维度合成图像进行融合,生成同时考虑两个维度信息的高质量生成帧。本发明结合时间、视点双维度信息,生成高质量的中间合成帧,保证了整体网络的并行度,避免了使用不同网络时造成的时延不同步在降低计算冗余的情况下克服了深层网络丢失图像原始信息的问题。

    一种基于自注意力的轻量化图像增强方法

    公开(公告)号:CN117876244A

    公开(公告)日:2024-04-12

    申请号:CN202311512493.2

    申请日:2023-11-14

    Abstract: 本发明公开了一种基于自注意力的图像全监督增强算法。首先进行数据集制作;然后构建基于自注意力的图像增强模型,对于输入的图像,使用特征提取,然后将提取的特征通过多尺度自注意力补偿模块进行特征补偿,弥补原先图像的噪声特征,然后经过质量增强模块,将在多尺度自注意力补偿模块还无法处理的局部图像进行整体质量增强,实现噪声的消除;最后通过获取的数据集对图像增强模型进行训练。本发明方法利用自注意力获得目标信息,并恢复量化丢失的非局部特征,可以明显提高增强图像质量的效果。创新的提出了一种主动提高质量模块用于将图像处理后的结果未处理好的噪声消除。

    一种基于感知特征参量度量的视频时域显著度度量方法

    公开(公告)号:CN113361599B

    公开(公告)日:2024-04-05

    申请号:CN202110625964.5

    申请日:2021-06-04

    Abstract: 本发明属于视频处理、机器视觉技术领域,公开了一种基于感知特征参量度量的视频时域显著度度量方法,包括如下步骤:步骤1:视频时域运动信息的提取;步骤2:感知特征参量的度量及融合。本发明考虑了视频中五个影响HVS时域感知特性的参量,并分析它们的作用机理,提出相应的概率密度函数,使得能够定量度量这些参量导致的感知显著度与不确定度。本发明提出的利用感知信息论的方法来度量这些参量,将它们映射到统一尺度,解决了异质特征参量融合困难这一问题。本发明提出时域视觉感知显著度度量方法能够达到较好预期效果。

Patent Agency Ranking