一种基于平坦度的轻量级神经网络架构搜索方法

    公开(公告)号:CN117786162A

    公开(公告)日:2024-03-29

    申请号:CN202311752908.3

    申请日:2023-12-20

    Inventor: 刘波 李浩阳

    Abstract: 本发明提出了一种基于平坦度的轻量级神经网络架构搜索方法,用于减少搜索神经网络架构的时间成本和计算资源。本发明从预测网络泛化性的角度,提出了一种将候选网络的初始时候的平坦度的作为评价指标对网络进行比较的方法。包括以下步骤:确定图像处理的任务以及确定数据集;确定网络的搜索空间;在搜索空间中选取一定数量的神经网络架构;验证评价指标的有效性;计算神经网络架构的平坦度,并根据平坦度对选取架构进行排序;选取平坦度最大的架构作为最优架构;对最优架构进行训练,完成图像分类任务。本发明可以在较小耗时中选到较高准确度的架构。

    一种优化决策边界增强深度神经网络鲁棒性的图像分类方法

    公开(公告)号:CN112784915B

    公开(公告)日:2024-03-22

    申请号:CN202110133058.3

    申请日:2021-01-29

    Inventor: 刘波 杜宾

    Abstract: 本发明涉及一种优化决策边界增强深度神经网络鲁棒性的图像分类方法,通过计算网络的决策域模型来计算对抗样本,通过对抗训练来优化神经网络对应的决策边界的分布,从而提高网络鲁棒性。具体为:使用训练好的深度神经网络的参数计算并获得其对应的决策域模型,并使用该模型与训练样本判断网络对应的决策边界有哪些对扰动较为敏感,并使用训练集中的数据计算得到对扰动敏感的决策边界周围样本的对抗样本,将对抗样本混入到训练样本中,对网络进行对抗训练,通过优化网络参数从而使得决策边界向敏感方向的反方向移动,降低其对扰动的敏感性,获得鲁棒性高的深度神经网络,从而在提高网络在分类任务中抗干扰的能力。

    一种基于深度学习的遮挡物体分割方法

    公开(公告)号:CN111489373B

    公开(公告)日:2023-05-05

    申请号:CN202010265530.4

    申请日:2020-04-07

    Inventor: 刘波 韩雨莹

    Abstract: 本发明公开了一种基于深度学习的遮挡物体分割方法,属于人工智能领域。包括:构建自定义的遮挡推理层,对存在遮挡的物体进行深度次序排序;利用自定义的遮挡推理层,对现有的分割网络mask rcnn中的FCN分支网络进行改进,搭建了一种遮挡物体分割网络;预训练网络得到网络的初始化参数;利用预训练好的权值,初始化遮挡物体网络,利用反向传播算法不断更新网络的参数。利用训练完成的模型即可得到遮挡物体之间的最优深度次序排序和所有物体的几何形状模板。本发明提出的遮挡物体分割网络显式地考虑了反馈及推理过程,从而无须提供各个角度遮挡的样本,与现有的深度学习分割方法相比,所需要的样本更少。

    一种单隐层ReLU神经网络局部极小值的求解方法

    公开(公告)号:CN112926727A

    公开(公告)日:2021-06-08

    申请号:CN202110187212.5

    申请日:2021-02-10

    Inventor: 刘波 孙雄飞

    Abstract: 一种单隐层ReLU神经网络局部极小值求解方法,属于深度学习理论领域,用于解决ReLU神经网络优化的不确定性的问题,包括构建单隐层ReLU神经网络;利用输入样本和ReLU激活函数的特性进行权值空间区域度划分,并计算每个区域权值和每个样本的点积是否大于0;根据每个区域的权值和样本点积的情况计算每个区域的局部极小值;根据局部极小值的解的情况判断局部极小值的真实性,对于唯一的局部极小值可以直接判断是否与初始化定义区域内的任何点都在每个输入样本的同一侧,对于连续的解可以判断这个连续的解是否在它所定义的区间内,判定的方法是求半平面的交是否为空,对于半平面求交的问题可以转化成凸包问题方便求解。

    基于深层卷积网络的RGB-D图像的物体检测和语义分割方法

    公开(公告)号:CN106709568B

    公开(公告)日:2019-03-22

    申请号:CN201611168200.3

    申请日:2016-12-16

    Inventor: 刘波 邓广晖

    Abstract: 本发明公开了基于深层卷积网络的RGB‑D图像的物体检测和语义分割方法,属于深度学习及机器视觉领域。本方法采用的技术方案中使用Faster‑RCNN替换原来缓慢的RCNN,Faster‑RCNN使用GPU不仅在提取特征方面拥有很快速度,而且在网络中能同时产生区域方案,能够实现整个训练过程是端到端的训练,同时使用FCN执行RGB‑D图像的语义分割,FCN使用GPU和深层卷积网络快速提取图像的深层特征,利用反卷积操作把图像卷积的深层特征和浅层特征进行融合,把图像的局部语义信息融入到全局语义信息中。

    基于卷积神经网络和空间金字塔匹配的图像排序模型

    公开(公告)号:CN105718960A

    公开(公告)日:2016-06-29

    申请号:CN201610057640.5

    申请日:2016-01-27

    Inventor: 刘波 陆雅

    CPC classification number: G06K9/6202 G06N3/02

    Abstract: 基于卷积神经网络和空间金字塔匹配的图像排序模型,结合近似最近邻匹配算法和类似的SPM算法作为图像之间相似性的度量。该模型包括卷积神经网络、近似最近邻匹配算法、类似空间金字塔匹配算法的应用。图像块的特征没有类别的划分,而是对利用快速最近邻查找算法找到的匹配的图像块的数量进行计数作为不同分辨率下的不同匹配数的度量,最后对这些不同分辨率下的不同匹配数加权求和作为两幅图像相似性的度量。将训练好的卷积神经网络提取的图像块的特征在同一个训练集上用三种相似性度量方法进行了测试;利用卷积神经网络提取图像块的特征得到特征向量集,利用最近邻匹配算法同时考虑空间信息的方法对图像之间相似性的度量有一定的研究价值。

    一种用于模式分类的支持向量机训练方法

    公开(公告)号:CN101571844A

    公开(公告)日:2009-11-04

    申请号:CN200910087153.3

    申请日:2009-06-10

    Abstract: 本发明公开了一种用于模式分类的支持向量机训练方法,依次包括以下步骤:输入两类数据向量样本集合X和Y;从X中任选一个向量x*,从Y任选一个向量y*;然后在X的凸包中训练xα,使xα和y*之间的距离尽可能小于x*和y*之间的距离,接着在Y的凸包中训练yβ,使yβ和xα之间的距离尽可能小于xα和y*之间的距离,再把xα赋予x*,把yβ赋予y*,重复训练xα和yβ,直到xα和yβ之间的距离几乎等于x*和y*之间的距离;最后利用X的凸包和Y的凸包之间的近似最近点xα和yβ计算X和Y的支持向量机。本发明不需要求解二次规划问题,编程实现容易,运行效率较高,而且能够明确判定两类数据向量样本集合是否线性可分。

    一种基于分层视觉注入与混合注意力机制的多模态大模型方法

    公开(公告)号:CN120047785A

    公开(公告)日:2025-05-27

    申请号:CN202510124361.5

    申请日:2025-01-26

    Abstract: 本发明提出的是一种基于分层视觉注入与混合注意力机制的多模态大模型方法。该方法首先通过预训练的视觉编码器提取输入图像的视觉特征序列,并将其投影到与大语言模型嵌入空间相同的维度。随后,在每一层中,利用混合注意力机制将视觉特征与文本特征进行高效融合,生成综合的键值序列,从而实现视觉与文本信息的协同处理。与现有多模态大模型相比,本发明有效解决了因序列长度增加而导致计算复杂度显著上升的问题。通过分层视觉注入与混合注意力机制,本方法在保持模型性能的同时,显著降低了整体计算成本,提升了多模态大模型计算效率。

    一种基于损失曲面的改进物理信息神经网络训练的方法

    公开(公告)号:CN120012862A

    公开(公告)日:2025-05-16

    申请号:CN202510124318.9

    申请日:2025-01-26

    Abstract: 本发明涉及一种基于损失曲面的改进物理信息神经网络训练的方法,用于提高PINNs的预测精度。包括以下步骤:首次发现PINNs残差损失的损失曲面中不同全局极小值点对应着不同边界与初始条件的解,并且在损失曲面中可以形成低损失值的连通区域;用全连接神经网络只优化边界与初始条件损失至网络权重参数model*;用同一神经网络从权重参数model*开始训练边界与初始条件损失与残差损失的加权和,其中通过一个大权值λ固定住边界/初始条件,从而在残差损失曲面中找到当前边界与初始条件对应的残差损失的全局极小值点。将本发明在不同的偏微分方程上进行验证,实验结果显示本发明可以降低PINNs的预测误差。

    一种基于深度学习的现场指纹特征点提取方法

    公开(公告)号:CN114529951B

    公开(公告)日:2024-04-02

    申请号:CN202210160407.5

    申请日:2022-02-22

    Inventor: 刘波 李剑

    Abstract: 本发明提出了一种基于深度学习的现场指纹特征点提取方法,所属领域为计算机视觉。本发明将目标检测思想应用到指纹特征点提取场景,将指纹细节点作为目标。通过对以细节点为中心的候选框进行分类预测和位置回归。训练中预设候选框区域设计为固定的32x32大小,能够有效的关注细节点局部特征。网络结构对Faster R‑CNN进行改进,修改网络结构和损失函数,并设计一种对输入数据进行滤波预处理方法,以适应指纹特征点提取场景,加快指纹特征提取速度。本发明通过结合目标检测思想,应用深度神经网络对图像特征的高表示性,充分提取指纹特征点,为指纹特征提取提供了一种新的解决方案。

Patent Agency Ranking