一种基于混合项目对抗学习的跨项目软件缺陷预测方法

    公开(公告)号:CN114816983B

    公开(公告)日:2024-11-08

    申请号:CN202210231504.9

    申请日:2022-03-10

    摘要: 本发明公开了一种基于混合项目对抗学习的跨项目软件缺陷预测方法,使用对抗学习的来改进特征学习的过程,以极大极小博弈的策略使得项目内的原始特征和重构特征难以判别,更好地保留原始鉴别特征。通过生成模型与判别模型的相互作用,在保留原始鉴别特征的同时,不同项目间的分布差异得到了有效的减小。值得注意的是,为了更充分利用不同项目间的信息,本发明提出了一种将源项目与目标项目按照随机比例进行混合的训练方法,通过该方法使得域分类器有了更加强大的判别能力,也为训练集数据不充足提供了一个可靠的解决方法。通过这种方式将增加了模型的泛化能力,使得模型通过在有标签源项目上训练更容易捕捉域间不变性特征。

    一种基于双注意力感知融合网络的跨模态行人重识别方法

    公开(公告)号:CN116740763A

    公开(公告)日:2023-09-12

    申请号:CN202310707709.4

    申请日:2023-06-14

    摘要: 本发明公开了一种基于双注意力感知融合网络的跨模态行人重识别方法,涉及图像识别技术领域,使用特征提取网络获得行人特征,为了减少跨模态图像的模态信息差异与抑制行人图片中背景噪声带来的不良影响,通过一种双注意力感知融合方法对模态内与模态间信息交互融合,减少模态间隙对跨模态行人重识别的影响;为了从模态内和模态间对齐样本分布,本发明从度量学习角度设计了一种特征相关性判断,它利用同类样本间的相似性与异类样本间的排他性形成监督信息来对特征样本间的相关性进行建模,目的是期望同类人物id特征样本更相似,异类人物id特征样本更不相似;与常规标准交叉熵损失配合训练,使得模型提取的特征获得更好的空间分布。

    一种基于区块链和风险评估的访问控制方法

    公开(公告)号:CN116633615A

    公开(公告)日:2023-08-22

    申请号:CN202310580816.5

    申请日:2023-05-23

    IPC分类号: H04L9/40 H04L9/00

    摘要: 本发明公开了一种基于区块链和风险评估的访问控制方法包括:在BR‑ABAC中构建智能合约,并进行数据采集;在BR‑ABAC中构建风险评估算法,构建访问风险评估模型并优化;评估模型性能,确定评估指标和评分函数;采用K折交叉验证法验证模型效果;根据风险等级划分实现对用户访问资源的控制。本发明提出的一种基于区块链和风险评估的访问控制方法,相比于现有技术,基于区块链和风险评估的访问控制方法,根据链上智能合约中已经设置好的访问控制策略来判断用户是否具有相应权限,有效提升访问控制的安全性和动态性的优势;针对零信任网络中用户的历史访问行为,持续评估访问主体每次访问时的访问风险,可有效提升零信任网络的安全性和效率。

    一种基于多尺度通道注意力机制的单幅图像超分辨率方法

    公开(公告)号:CN113160047B

    公开(公告)日:2023-05-23

    申请号:CN202011318695.X

    申请日:2020-11-23

    IPC分类号: G06T3/40 G06N3/0464 G06N3/08

    摘要: 本发明公开了一种基于多尺度通道注意力机制的单幅图像超分辨率方法。本发明主要用于单幅图像超分辨率,属于图像处理领域。本网络模型由若干卷积层、下采样模块、上采样模块和多尺度通道注意力模块连接构成。本模型的主干网络由若干多尺度通道注意力模块、上采样模块和下采样模块组成的三个并行分支构成。首先,把经过预处理上采样的低分辨率图像送入卷积层进行浅层特征提取;然后,对提取到的特征,送入主干网络以进行深层特征提取;最后,将三个不同分支提取到的特征进行连接,并将其送入由若干多尺度注意力模块和卷积层构成的图像重建网络,以输出高分辨率图像。

    三维目标检测方法及三维目标检测器

    公开(公告)号:CN110909623B

    公开(公告)日:2022-10-04

    申请号:CN201911052349.9

    申请日:2019-10-31

    摘要: 本发明提出了一种三维目标检测方法及三维目标检测器。所述三维目标检测方法主要包括以下步骤:对三维目标检测数据集的图像数据进行语义分割,得到语义预测;将语义预测投影到点云空间中,并筛选特定类别的点形成视锥;构建三维目标检测网络,并将视锥作为三维目标检测网络的输入;通过损失函数强化三维目标检测网络对目标的敏感程度;优化三维目标检测网络。本发明大大减少了三维检测的时间并且降低了计算需求,使得输入更加简单,具有很好的实时目标检测性能,在保持实时检测的同时也能获得很好的检测效果。

    一种基于生成性对抗网络的模态一致性跨模态检索方法

    公开(公告)号:CN111460201B

    公开(公告)日:2022-09-23

    申请号:CN202010143786.8

    申请日:2020-03-04

    IPC分类号: G06F16/58 G06N3/08

    摘要: 本发明公开了一种基于生成性对抗网络的模态一致性跨模态检索方法,包括以下步骤:首先利用生成性对抗网络强大的数据分布建模能力,将文本特征映射到图像特征空间,用这种方法将跨模态检索问题转换为单模态检索问题,尽可能多地保留图像语义信息的同时减小模态的异质性。其次,设计了一个模态一致性哈希网络,将真实的图像特征和通过生成性对抗网络生成的特征投影到汉明空间中,并且利用标签信息对模态间和模态内的相似性进行建模,使得输出的哈希码在模态间和模态内具有更好的语义区分性,获得更具判别性的哈希码。最后在两个常用的基准数据集上的实验结果表明本方法与现有的流行方法相比具有更好的跨模态检索性能。

    上下文聚合网络以及基于该网络的图像实时语义分割方法

    公开(公告)号:CN114821061A

    公开(公告)日:2022-07-29

    申请号:CN202210486074.5

    申请日:2022-05-06

    摘要: 本发明涉及一种用于实时语义分割的高效多尺度上下文聚合网络,包括下采样模块、不对称卷积模块、多分支不对称卷积模块、空间注意模块、通道注意模块和上采样模块,所述不对称卷积模块包括两个或三个不对称卷积单元,所述多分支不对称卷积模块包括三个多分支不对称卷积单元。本发明网络主干分支的编码器与解码器部分基本成对称关系。在解码器最后,对图像进行一次上采样操作,即可获得原始分辨率图像。最后一次上采样模块即为分类卷积,其输出为原始分辨率大小的最终预测结果,将预测结果与对应的语义标签进行对比,目标函数设置为交叉熵损失函数,就可得到训练好的网络模型。使用这个训练好的网络模型,方便进行图像语义分割的结果预测。

    一种有鉴别的全相似性保留哈希跨模态检索方法

    公开(公告)号:CN109766455B

    公开(公告)日:2021-09-24

    申请号:CN201811358982.6

    申请日:2018-11-15

    IPC分类号: G06F16/43 G06K9/62

    摘要: 本发明公开了一种有鉴别的全相似性保留哈希跨模态检索方法,包括:由图像文本对组成样本构成数据集,并将数据集按照分成特征向量训练集和测试集后做规整和均一化处理;提取双模态数据,构造有鉴别的全相似性保留哈希的目标函数;迭代法求解目标函数,比较求解值与设定阈值的大小;使用预设公式计算哈希码;利用图像特征投影矩阵和文本特征投影矩阵对训练集进行投影变换,获得图像文本语义特征矩阵,再次计算哈希码;计算测试集中每个图像哈希码与训练集中所有文本哈希码之间的汉明距离和测试集每个文本哈希码与训练集中所有图像哈希码之间的汉明距离升序排序和并对计算结果进行精度计算,完成跨模态检索;本发明提升了跨模态检索的精度。

    一种基于多尺度通道注意力机制的单幅图像超分辨率方法

    公开(公告)号:CN113160047A

    公开(公告)日:2021-07-23

    申请号:CN202011318695.X

    申请日:2020-11-23

    IPC分类号: G06T3/40 G06N3/04 G06N3/08

    摘要: 本发明公开了一种基于多尺度通道注意力机制的单幅图像超分辨率方法。本发明主要用于单幅图像超分辨率,属于图像处理领域。本网络模型由若干卷积层、下采样模块、上采样模块和多尺度通道注意力模块连接构成。本模型的主干网络由若干多尺度通道注意力模块、上采样模块和下采样模块组成的三个并行分支构成。首先,把经过预处理上采样的低分辨率图像送入卷积层进行浅层特征提取;然后,对提取到的特征,送入主干网络以进行深层特征提取;最后,将三个不同分支提取到的特征进行连接,并将其送入由若干多尺度注意力模块和卷积层构成的图像重建网络,以输出高分辨率图像。

    一种基于模态特定和共享特征学习的跨模态检索方法

    公开(公告)号:CN112800292A

    公开(公告)日:2021-05-14

    申请号:CN202110053038.5

    申请日:2021-01-15

    摘要: 本发明公开了一种基于模态特定和共享特征学习的跨模态检索方法,包括:步骤S1、获取跨模态检索数据集,划分为训练集和测试集;步骤S2、对文本和图像分别进行特征提取;步骤S3、提取模态特定特征和模态共享特征;步骤S4、通过哈希网络生成对应模态样本的哈希码;步骤S5、联合对抗自编码器网络的损失函数以及哈希网络的损失函数训练网络;步骤S6、利用步骤S5中训练完成的网络对测试集中的样本进行跨模态检索。本发明设计了一个哈希网络,将图像通道的编码特征和文本通道编码特征以及模态共享特征投影到汉明空间中,并且利用标签信息、模态特定和共享特征进行建模,使得输出的哈希码在模态间和模态内具有更好的语义区分性。