一种目标跟踪方法及装置
    22.
    发明公开

    公开(公告)号:CN107818573A

    公开(公告)日:2018-03-20

    申请号:CN201610819808.1

    申请日:2016-09-12

    Inventor: 张渊 谢迪 浦世亮

    Abstract: 本发明实施例公开了一种目标跟踪方法及装置,分别利用两种预设算法对目标进行跟踪,得到两个跟踪结果,再将所述两个跟踪结果中包含的位置信息进行融合,根据融合结果,预测所述目标在下一帧图像中的位置信息。相比于现有技术中利用一种跟踪算法预测目标在下一帧图像中的位置,提高了目标跟踪的准确性。比如,当图像中有多个目标、且这多个目标的运动轨迹有交叉或重叠时,利用两种跟踪算法,从两个方面确定各个目标的运动轨迹,降低了混淆运动轨迹的可能性;当图像中有遮挡物遮挡住了目标时,利用两种跟踪算法,从两个方面确定目标的运动轨迹,可以减少遮挡造成的影响。

    一种神经网络的定点化方法、装置

    公开(公告)号:CN113408715B

    公开(公告)日:2024-05-28

    申请号:CN202010186495.7

    申请日:2020-03-17

    Abstract: 本申请公开了一种神经网络的定点化方法,对神经网络进行至少如下之一低比特量化:对神经网络中的卷积层输入激活值进行第一低比特量化,对卷积层中卷积核权值进行第二低比特量化,对神经网络中除了卷积层之外的非卷积功能层,将非卷积功能层的输入激活值进行第三低比特量化;在进行所述任意低比特量化之后,基于当前低比特量化后的神经网络,进行重训练,基于重训练后的神经网络中各低比特量化结果,进行定点化;其中,所述第一低比特、第二低比特、第三低比特均在1比特至8比特以内。本申请使得最终激活值和/或卷积核权值都用低比特定点化表示,可以方便移植到嵌入式平台、专用集成电路之中。

    一种深度神经网络的卷积层稀疏化方法及装置

    公开(公告)号:CN111160516B

    公开(公告)日:2023-09-05

    申请号:CN201811320668.9

    申请日:2018-11-07

    Inventor: 张渊 谢迪 浦世亮

    Abstract: 本申请实施例提供了一种深度神经网络的卷积层稀疏化方法及装置,其中,方法包括:获取深度神经网络中卷积层的张量及结构参数;根据卷积层的结构参数,利用预设维度划分方法,将该卷积层的张量中处于同一维度的权值划分为同一维度单元,得到多个维度单元;针对各维度单元,根据该维度单元中的权值,对该维度单元中的各权值进行相同的稀疏化操作。通过本方案,可以提高内存的访问效率。

    生成神经网络模型的方法、装置及存储介质

    公开(公告)号:CN112329909B

    公开(公告)日:2022-10-21

    申请号:CN201910718494.X

    申请日:2019-08-05

    Abstract: 本申请公开了一种生成神经网络模型的方法及装置,属于深度学习领域。本申请通过第一神经网络模型中的N个层来确定得到第二神经网络模型。其中,第一神经网络模型是已经训练好的模型,第二神经网络模型包括第一神经网络模型的N个层,并且,第二神经网络模型中的N个层中除批归一化层之外的其余层的参数均采用第一神经网络模型中的对应层的参数。由此可见,在本申请中,通过第一神经网络模型中的部分层得到的第二神经网络模型可以与第一神经网络模型中对应的层共用参数。这样,只需要训练好一个网络模型,即可根据该训练好的模型得到适配不同运算平台的不同深度的模型,无需重新对不同深度的模型进行训练,省时省力,且节省资源。

    图像识别方法
    26.
    发明公开

    公开(公告)号:CN112733585A

    公开(公告)日:2021-04-30

    申请号:CN201911059779.3

    申请日:2019-10-29

    Inventor: 张渊 谢迪 浦世亮

    Abstract: 本公开公开了一种图像识别方法,涉及神经网络技术领域;所述方法包括:获取待处理的第一神经网络模型,第一神经网络模型中包括多个第一卷积层,每个第一卷积层中包括K×K的第一卷积核,所述K为大于1的整数;根据稀疏化因子,对第一神经网络模型中的第一卷积核进行轻量化处理,得到第二神经网络模型,第二神经网络模型中包括多个第二卷积层,每个第二卷积层中包括K×K及M×M组合的第二卷积核,M为小于K的正整数;当进行图像识别时,通过所述第二神经网络模型,对待识别的目标图像进行识别。由于第二神经网络模型为轻量化的网络模型,因此,通过第二神经网络模型,对待识别的目标图像进行识别时,能够提高识别效率。

    一种神经网络模型训练方法及装置

    公开(公告)号:CN112561050A

    公开(公告)日:2021-03-26

    申请号:CN201910909494.8

    申请日:2019-09-25

    Inventor: 张渊 谢迪 浦世亮

    Abstract: 本申请实施例提供了一种神经网络模型训练方法及装置,获取训练样本,利用训练样本,对神经网络模型进行训练。在进行神经网络模型训练时,对输入每个网络层的第一激活量和每个网络层的网络权值进行幂指数域定点编码,编码后的第一激活量和网络权值为幂指数域定点数据,则在进行运算时,所涉及到的矩阵乘法,通过幂指数域编码方式,可以在幂指数域将乘法转换为加法操作,加法操作所需要的硬件资源明显少于乘法所需要的硬件资源,因此,可以大幅地降低运行神经网络模型需要的硬件资源开销。

    一种目标跟踪方法及装置
    28.
    发明授权

    公开(公告)号:CN107818573B

    公开(公告)日:2020-10-02

    申请号:CN201610819808.1

    申请日:2016-09-12

    Inventor: 张渊 谢迪 浦世亮

    Abstract: 本发明实施例公开了一种目标跟踪方法及装置,分别利用两种预设算法对目标进行跟踪,得到两个跟踪结果,再将所述两个跟踪结果中包含的位置信息进行融合,根据融合结果,预测所述目标在下一帧图像中的位置信息。相比于现有技术中利用一种跟踪算法预测目标在下一帧图像中的位置,提高了目标跟踪的准确性。比如,当图像中有多个目标、且这多个目标的运动轨迹有交叉或重叠时,利用两种跟踪算法,从两个方面确定各个目标的运动轨迹,降低了混淆运动轨迹的可能性;当图像中有遮挡物遮挡住了目标时,利用两种跟踪算法,从两个方面确定目标的运动轨迹,可以减少遮挡造成的影响。

    深度神经网络中的网络层运算方法及装置

    公开(公告)号:CN110647974A

    公开(公告)日:2020-01-03

    申请号:CN201810679580.X

    申请日:2018-06-27

    Inventor: 张渊 谢迪 浦世亮

    Abstract: 本申请实施例提供了一种深度神经网络中的网络层运算方法及装置,方法包括:获取深度神经网络中网络层的权值张量,其中,权值张量包括多个滤波器;针对网络层的各滤波器,将该滤波器拆分为多个定点卷积核的线性组合,其中,各定点卷积核中的权值为具有指定位宽的定点量化值;针对网络层的各滤波器,将网络层的输入数据与该滤波器的各定点卷积核分别进行卷积运算,得到多个卷积结果,并根据该滤波器的多个定点卷积核的线性组合方式,将各卷积结果加权求和,得到该滤波器的运算结果;确定各滤波器的运算结果组成网络层的输出数据。通过本方案,可以提高深度神经网络的运算效率。

    深度神经网络的网络模型压缩方法、装置及计算机设备

    公开(公告)号:CN109754077A

    公开(公告)日:2019-05-14

    申请号:CN201711092273.3

    申请日:2017-11-08

    Abstract: 本发明实施例提供了一种深度神经网络的网络模型压缩方法、装置及计算机设备,其中,深度神经网络的网络模型压缩方法包括:获取原始深度神经网络;通过对原始深度神经网络的网络层中各运算单元的重要度进行分析,确定该网络层中重要度低于预设重要度的运算单元作为待删除运算单元;删除原始深度神经网络中各网络层的待删除运算单元,得到网络模型压缩后的深度神经网络。通过本方案可以提高目标识别与目标检测的效率。

Patent Agency Ranking