一种基于可微架构搜索的任务自适应ViT模型压缩方法

    公开(公告)号:CN119992278A

    公开(公告)日:2025-05-13

    申请号:CN202411860201.9

    申请日:2024-12-17

    Abstract: 本发明公开了一种基于可微架构搜索的任务自适应ViT模型压缩方法,其中方法包括:在目标数据集Dt上预训练ViT模型,获取微调后ViTt模型;基于微调后ViTt模型,采用可微架构搜索以最小化损失函数为目标寻找最佳搜索空间架构,基于最佳搜索空间架构把微调后ViTt模型压缩成自适应目标任务的自适应ViT模型。本发明提出的自适应ViT模型能够自适应地为不同下游任务进行ViT模型的轻量化,通过结合可微架构搜索和损失函数(面向任务的知识蒸馏损失与模型效率感知损失),自适应ViT模型能够自动有效地调整模型结构,显著提升模型效率的同时保持较高的任务适应性和预测性能。

    一种低复杂度超奈奎斯特系统打包率估计方法

    公开(公告)号:CN118473873B

    公开(公告)日:2024-12-27

    申请号:CN202410393818.8

    申请日:2024-04-02

    Applicant: 安徽大学

    Abstract: 本发明公开了一种低复杂度超奈奎斯特系统打包率估计方法,包括:基于传输导频块及映射后的符号构造传输帧;基于传输帧生成发射信号;对发射信号进行加噪及滤波,生成接收信号;获取初始的假定下采样因子,对初始的假定下采样因子进行迭代更新,基于迭代更新过程中的每个假定下采样因子,分别对接收信号进行下采样,得到下采样后的导频块,并对下采样后的导频块及传输导频块进行相干相关处理,得到每个假定下采样因子对应的判决值;提取最大的判决值对应的假定下采样因子,根据提取的假定下采样因子,生成超奈奎斯特系统的打包率。通过上述技术方案,本发明可以估计随机的超奈奎斯特系统打包率,并且实现复杂度低。

    一种低复杂度超奈奎斯特系统打包率估计方法

    公开(公告)号:CN118473873A

    公开(公告)日:2024-08-09

    申请号:CN202410393818.8

    申请日:2024-04-02

    Applicant: 安徽大学

    Abstract: 本发明公开了一种低复杂度超奈奎斯特系统打包率估计方法,包括:基于传输导频块及映射后的符号构造传输帧;基于传输帧生成发射信号;对发射信号进行加噪及滤波,生成接收信号;获取初始的假定下采样因子,对初始的假定下采样因子进行迭代更新,基于迭代更新过程中的每个假定下采样因子,分别对接收信号进行下采样,得到下采样后的导频块,并对下采样后的导频块及传输导频块进行相干相关处理,得到每个假定下采样因子对应的判决值;提取最大的判决值对应的假定下采样因子,根据提取的假定下采样因子,生成超奈奎斯特系统的打包率。通过上述技术方案,本发明可以估计随机的超奈奎斯特系统打包率,并且实现复杂度低。

    一种基于能耗自适应的卷积神经网络剪枝方法

    公开(公告)号:CN118350440A

    公开(公告)日:2024-07-16

    申请号:CN202410311276.5

    申请日:2024-03-19

    Abstract: 本发明公开了一种基于能耗自适应的卷积神经网络剪枝方法,其中方法包括确定当前CNN模型能耗组成,计算当前CNN模型能耗值,确定能耗预算值;在满足能耗预算值的前提下,采用迭代优化的方法逐步剪枝CNN模型,减少CNN模型能耗,尽量保持模型的性能精度,获取满足能耗预算值的最优性能精度的稀疏化CNN模型;本发明可以根据需求,自适应能耗预算值,获取剪枝精度最好的轻量化网络模型,使用能耗值这一直接指标,作为CNN模型进行剪枝压缩的前提,充分考虑到不同设备的能耗预算,剪枝后的轻量化模型既可以满足不同设备能耗部署的要求,又保持轻量化网络模型精度,确保了剪枝后CNN模型在不同应用场景下的适用性。

    适用于高阶调制的超奈奎斯特系统SVD预编码方法

    公开(公告)号:CN116633734B

    公开(公告)日:2024-02-23

    申请号:CN202310758645.0

    申请日:2023-06-26

    Applicant: 安徽大学

    Abstract: 本发明公开了适用于高阶调制的超奈奎斯特系统SVD预编码方法,包括:获取发送符号块及码间干扰矩阵;获取傅里叶变换矩阵对码间干扰矩阵进行SVD分解,得到对角矩阵;根据傅里叶变换矩阵对发送符号块进行SVD预编码;对预编码的发送符号块进行基带成形并发射,其中,所述基带成形基于循环卷积实现;接收发射的发送符号块并进行匹配滤波,其中,所述匹配滤波通过匹配滤波的循环卷积实现;根据对角矩阵对所述匹配滤波后的符号块进行SVD解码,获得估计符号块。通过上述技术方案,本发明降低超奈奎斯特系统的复杂度,同时提高超奈奎斯特系统的符号估计精度,改善超奈奎斯特系统采用高阶调制时的误比特率性能。

    无需前缀和后缀的超奈奎斯特系统GTMH预编码方法

    公开(公告)号:CN116708096B

    公开(公告)日:2024-02-09

    申请号:CN202310758562.1

    申请日:2023-06-26

    Applicant: 安徽大学

    Abstract: 本发明公开了无需前缀和后缀的超奈奎斯特系统GTMH预编码方法,包括,包括:获取发送符号块;根据发送符号块,获取码间干扰矩阵;根据码间干扰矩阵,获取傅里叶变换矩阵和对角矩阵;根据变换矩阵及对角矩阵,对发送符号块进行GTMH预编码;将超奈奎斯特系统发射机基带成形的线性卷机替换为循环卷积,对预编码后的发送符号块进行基带成形并发射;将超奈奎斯特系统接收机匹配滤波的线性卷积替换为循环卷积,对接收到的符号块进行进行匹配滤波;对匹配滤波后的符号块进行GTMH解码,得到估计符号块。通过上述技术方案,本发明降低超奈奎斯特系统接收机复杂度,提高超奈奎斯特系统的符号估计精度,改善其误比特率性能。

    一种基于静动态联合的卷积神经网络剪枝方法及装置

    公开(公告)号:CN119990229A

    公开(公告)日:2025-05-13

    申请号:CN202411859766.5

    申请日:2024-12-17

    Abstract: 本发明公开了一种基于静动态联合的卷积神经网络剪枝方法及装置,其中方法包括:对卷积神经网络参数进行静态剪枝,筛选出权重低的参数进行剪除,优化卷积神经网络参数;在卷积神经网络训练过程中,根据输入样本的特定特征,动态评估剩余通道的重要性,对卷积神经网络参数进行动态剪枝再优化;静态剪枝联合动态剪枝,直至完成卷积神经网络剪枝。本发明将静态剪枝和动态剪枝相结合,充分利用了两种剪枝策略的互补优势,实现模型尺寸的缩减和计算效率的提升,同时尽量保持模型的性能不受损害,不仅比静态剪枝更加灵活,还比动态剪枝减少了额外的计算成本和时间开销。

    一种基于任务匹配相似度的轻量级预训练模型剪枝方法

    公开(公告)号:CN119962608A

    公开(公告)日:2025-05-09

    申请号:CN202411868179.2

    申请日:2024-12-18

    Abstract: 本发明公开了一种基于任务匹配相似度的轻量级预训练模型剪枝方法,包括:对模型进行预训练微调,量化上游任务的通用任务知识与下游任务的特定任务知识之间的匹配相似度分数,执行模型动态剪枝策略,对动态剪枝后的模型进行联合微调训练优化。本发明方法通过融合上下游任务知识优化剪枝策略,显著提升了剪枝模型的性能,同时大幅减少了模型参数和计算开销,增强了模型的泛化能力,动态剪枝策略使得剪枝过程更加灵活,能够根据任务需求进行个性化的调整,本发明技术方案不仅适用于计算机视觉领域的预训练模型剪枝,还可以扩展到其他领域的深度学习模型剪枝中,具有广泛的应用前景和潜在的经济价值。

    一种基于预训练模型的视觉神经网络模型剪枝方法

    公开(公告)号:CN118313430A

    公开(公告)日:2024-07-09

    申请号:CN202410389656.0

    申请日:2024-04-02

    Abstract: 本发明公开了一种基于预训练模型的视觉神经网络模型剪枝方法,方法包括:S1、在ViT模型中每个线性层Linear‑Layer引入内部标记变量is_skip;S2、依据内部标记变量is_skip值,生成多种ViT模型跳层随机方案;S3、计算各跳层随机方案执行后,ViT模型的loss值;S4、依据loss值变化将线性层分为个性化层与通用层;S5、对个性化层与通用层采取不同剪枝比率进行剪枝,获取剪枝后视觉神经网络ViT模型。本发明通过将线性层进行划分得到个性化层与通用层,确定不同的剪枝比率,得到压缩ViT模型,让预训练参数ViT模型更加针对个性化的数据。

Patent Agency Ranking