-
公开(公告)号:CN117608521A
公开(公告)日:2024-02-27
申请号:CN202311574205.6
申请日:2023-11-23
Applicant: 西安交通大学
Abstract: 本发明提供基于改进Schoolbook算法的Toom‑Cook多项式乘法器及加解密方法,基于新的Winograd‑Schoolbook算法,设计了Toom‑Cook多项式乘法器,与常规Schoolbook算法相比,当多项式长度为256时Winograd‑Schoolbook算法可以减少29.1%的乘法运算量,即本发明能大幅度降低运算量。采用F(2,3)的Winograd参数使得Winograd‑schoolbook更适合于小型PE阵列,大大提高了PE的利用率。
-
公开(公告)号:CN116976406A
公开(公告)日:2023-10-31
申请号:CN202310962009.X
申请日:2023-08-01
Applicant: 西安交通大学
IPC: G06N3/0464 , G06N3/0495 , G06N3/082 , G06N3/063 , G06F9/50
Abstract: 本发明提供一种面向稠密及稀疏卷积神经网络的稀疏度自适应卷积加速方法及加速器。本发明对卷积层的卷积类型及以及稀疏度变化进行了针对性优化。针对不同尺寸的卷积核,将其尺寸统一为预设尺寸;对输入特征图进行相应处理,将其划分为预设尺寸的输入块,从而在实现简单规整的硬件结构的同时提升硬件资源利用率。针对不同稀疏度的卷积层,根据卷积核的稀疏度动态调整转换方法,通过Winograd加速算法以及抓取非零权重等方法降低冗余运算,使得所需的乘法运算量大幅度降低。
-
公开(公告)号:CN113283587B
公开(公告)日:2023-09-19
申请号:CN202110588325.6
申请日:2021-05-28
Applicant: 西安交通大学
IPC: G06N3/0464 , G06N3/08 , G06F15/78
Abstract: 本发明提供一种Winograd卷积运算加速方法及加速模块,对于非3×3形状的卷积运算,使用基于步长的卷积核拆分方法将输入矩阵拆分或者填充为4×4的输入矩阵,将卷积核矩阵拆分或者填充为3×3的卷积核矩阵;使用卷积核转换矩阵G和输入矩阵转换矩阵BT对3×3的卷积核矩阵和4×4的输入矩阵分别进行Winograd变换,得到变换后的卷积核矩阵U和输入矩阵V;对变换后的卷积核矩阵U中的元素uξ,v按照比特级精度进行权重拆分,通过累加运算和移位运算得到矩阵Z;对矩阵Z进行Winograd变换,获得卷积运算的输出矩阵。本发明不但能合理利用片上资源、降低计算复杂度,且可以兼容大多数尺寸的卷积运算。
-
公开(公告)号:CN110533164B
公开(公告)日:2023-04-07
申请号:CN201910717929.9
申请日:2019-08-05
Applicant: 西安交通大学
IPC: G06N3/0464
Abstract: 本发明公开了一种面向卷积神经网络加速器的Winograd卷积拆分方法,包括以下步骤:1)从卷积神经网路加速器的缓存中读取大小任意的输入和卷积核;2)根据卷积核大小和输入大小判断是否进行卷积拆分,如需进行卷积拆分,则进行下一步;3)根据卷积核大小和步长对卷积核进行拆分,根据输入大小和步长对输入进行拆分;4)根据卷积核大小将拆分后的元素组合并补零,根据输入大小将拆分后的元素组合并补零;5)将每对拆分后的输入和卷积核进行Winograd卷积;6)将每队输入和卷积核的Winograd卷积结果累加;7)将累加结果存储在卷积神经网络加速器的缓存中。本发明使得卷积神经网络加速器采用一种Winograd加速单元就可以支持多种不同形状的卷积。
-
公开(公告)号:CN115640833A
公开(公告)日:2023-01-24
申请号:CN202211274717.6
申请日:2022-10-18
Applicant: 西安交通大学
IPC: G06N3/0464 , G06N3/063
Abstract: 本发明面向稀疏卷积神经网络的加速方法,包括:S1,根据稀疏卷积神经网络中稀疏卷积核的非零权重的重要性,将稀疏卷积核中的非零权重进行聚集和重排,得到重排卷积核;S2,根据重排卷积核中非零权重的索引对输入块进行扩张,得到扩张输入块;S3,对扩张输入块中的特征图子块进行累加,得到累加块,将累加块与重排卷积核进行卷积运算并取平均值,得到卷积结果;或者,根据扩张输入块中特征图子块的重要性对特征图子块进行筛选,得到候选块,将候选块与重排卷积核进行卷积运算,得到卷积结果。本发明在改善网络结构的同时能大幅度降低稀疏卷积神经网络模型中的冗余运算量。
-
公开(公告)号:CN115455846A
公开(公告)日:2022-12-09
申请号:CN202210982393.5
申请日:2022-08-16
Applicant: 国网宁夏电力有限公司超高压公司 , 西安交通大学 , 国网宁夏电力有限公司
IPC: G06F30/28 , G06T17/00 , G06F111/10 , G06F113/08 , G06F119/08 , G06F119/14
Abstract: 本发明公开一种换热器系统的换热因子的确定方法、介质及系统,包括:将换热器的参数、换热器的第一预设进口空气流量和温度输入HTRI软件中,输出换热器的换热量;拟合得到换热量方程;在Fluent软件中建立换流站的三维立体模型;在Fluent软件中将换热量方程加载,模拟换热器的换热过程,分别输出风环境条件下和无风环境条件下换热器的进口空气温度与流量;将风环境条件下和无风环境条件下换热器的进口空气温度与流量,输入换热量方程,分别计算得到风环境条件下和无风环境条件下换热器的换热量;将风环境条件下换热器的换热量的和除以无风环境条件下换热器的换热量的和得到换热因子。本发明可高效准确地计算换热器系统的换热因子。
-
公开(公告)号:CN112434801B
公开(公告)日:2022-12-09
申请号:CN202011192684.1
申请日:2020-10-30
Applicant: 西安交通大学
Abstract: 本发明公开了一种按照比特精度进行权重拆分的卷积运算加速方法,包括:1)对于卷积核中每一个权重W,遍历比较其每一个比特位,标记出所有比特数据中的非零元素ck×k’,q,同时将此位置所属的权重Wk×k’对应的输入特征图数据FIk×k’标记,传递给FIk×k’,q’,未被标记处的FIk×k’,q’用“0”补上;2)对于每一个比特位,累加被归类给予当前比特的所有输入数据;3)将每q比特下的累加结果乘以2q;4)对移位计算获得的结果再次进行累加,以获得当前卷积运算的输出特征图数据FO;迭代地重复步骤1)至4),则可生成所有卷积通道的输出特征图数据。本发明使得卷积运算摆脱了对片上DSP资源的依赖,提高了卷积运算可以达到的计算并行度的上限。
-
公开(公告)号:CN115114788A
公开(公告)日:2022-09-27
申请号:CN202210764463.X
申请日:2022-06-30
Applicant: 国网宁夏电力有限公司超高压公司 , 西安交通大学 , 国网宁夏电力有限公司
IPC: G06F30/20 , G06Q10/06 , G06Q50/06 , G06F119/08
Abstract: 本发明公开一种换流阀冷却系统冷却能力的评估方法、介质及系统,包括:建立换流阀冷却系统的冷却能力的评估模型;每隔预设时间采集实际工况下换流阀冷却系统的实际温升值;将采集的换流阀冷却系统在该实际工况下的多个实际温升值代入所述评估模型,拟合得到换流阀冷却系统在该实际工况下的评估指标;根据换流阀冷却系统在该实际工况下的评估指标评估换流阀冷却系统的冷却能力。本发明建立评估模型得到评估指标,通过不同的评估指标可以全面并且定量评估冷却系统的冷却能力,通过对比不同实际工况和不同冷却系统的冷却能力,指导换流阀冷却系统的调控与使用,确保换流阀的安全运行。
-
公开(公告)号:CN111582094B
公开(公告)日:2022-04-22
申请号:CN202010346203.1
申请日:2020-04-27
Applicant: 西安交通大学
IPC: G06V40/10 , G06V10/774 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明并行选取超参数设计多分支卷积神经网络识别行人的方法,包括步骤:1)初始化多分支卷积神经网络架构;2)自适应的根据具体任务,自动化筛选构建单元,迭代并行添加到各分支,构成精度和运算量可分离的分支卷积神经网络;3)验证评估,保留最高精度下降5%以内的所有模型,选择其中计算量最小的模型为选取结构;4)将最有筛选的多分支卷积神经网络拆分开来,单个分支使用或者两两分支组合作为基准模型,存储在终端设备,离线推理识别行人。本发明中多分支卷积神经网络的各个分支一起,根据具体的行人识别数据集,在每个迭代周期选取超1次参数,生成构建块,这些构建块并行添加到各分支去训练,然后选择出性能优异的超参数保存模型。
-
公开(公告)号:CN110516801B
公开(公告)日:2022-04-22
申请号:CN201910718678.6
申请日:2019-08-05
Applicant: 西安交通大学
Abstract: 本发明一种高吞吐率的动态可重构卷积神经网络加速器架构。其输入输出缓存和权值缓存用于存储来自储外部存储器的数据或者计算过程中产生的数据,以及卷积核数据,将其组织、排列后,以统一的数据流传送到运算阵列中进行计算;运算阵列用于接收来自输入输出缓存和权值缓存的数据,进行卷积操作处理后存储在缓存架构中;输出处理模块用于接收来自运算阵列的数据,选择进行累加、标准化、或者激活函数等操作,并将输出数据存储在输入输出缓存中;控制模块用于向其他模块发送命令,并设计有外部接口,用于和外部系统进行通信。本发明通过设计高并行度、高利用率的运算阵列以及高片上数据复用率的缓存架构提高卷积神经网络加速器的性能,降低功耗。
-
-
-
-
-
-
-
-
-