-
公开(公告)号:CN119397229A
公开(公告)日:2025-02-07
申请号:CN202411452287.1
申请日:2024-10-17
Applicant: 浙江大学
IPC: G06F18/211 , G06N3/045 , G06N3/042 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于交错映射的GCN‑ReRAM顶点特征选择性更新方法。本发明针对利用基于ReRAM的存算一体系统训练图卷积神经网络时,由于度数满足幂律分布的顶点随机分布造成GCN相关写操作的总延迟受限于单位最长写延迟,产生“木桶短板效应”,严重影响加速器性能的问题。本发明考虑了顶点特征的重要性,重要性较高的顶点特征每次反向传播更新,不重要的顶点间隔多次反向传播更新,既减少了Crossbar的写次数,降低了其写延迟,又提高了Crossbar的使用寿命,同时,本方法采用的交错映射方式能够保证每个Crossbar的更新时间一致,防止个别Crossbar更新时间过长降低系统的整体性能。
-
公开(公告)号:CN118550667A
公开(公告)日:2024-08-27
申请号:CN202410697867.0
申请日:2024-05-31
Applicant: 浙江大学
Abstract: 本发明公开了一种基于强化学习的跨域云平台神经网络训练任务调度方法,该方法首先实时获取用户提交的神经网络训练任务并收集训练信息,然后进行计算量预估和进行模型的训练时间的预测,然后根据预测所得的训练时间来强化学习训练获得调度方案,并基于调度方案对用户提交的神经网络训练任务进行调度分配至对应云平台。本发明能有效地降低大部分任务的平均完成时间,以及提高集群资源利用率。
-
公开(公告)号:CN113609254B
公开(公告)日:2024-04-05
申请号:CN202110862739.3
申请日:2021-07-29
Applicant: 浙江大学
IPC: G06F16/33 , G06F40/289 , G06F18/241 , G06N3/0442 , G06N3/092
Abstract: 本发明公开了一种基于分层强化学习的聚合式搜索排序方法。本发明采用分层强化学习获得的针对聚合式搜索排序问题的排序策略,可以较大地提升页面内容与查询的相关性。本发明包括如下步骤:1)首先从已标注数据中获取查询、搜索结果,得到它们的特征表示;2)构建聚合式搜索排序模拟器;3)利用模拟器训练分层强化学习模型;4)通过分层强化学习方法确定聚合式搜索排序策略,在搜索引擎中进行应用。和现有技术相比,本发明结合了分层强化学习方法,系统地对聚合式搜索排序问题进行建模,针对不同查询的特征选择合适的搜索结果,形成特别的聚合式搜索排序方法,创造性地提升了排序的工作效率和效果。
-
公开(公告)号:CN117610627A
公开(公告)日:2024-02-27
申请号:CN202311624812.9
申请日:2023-11-30
Applicant: 浙江大学
IPC: G06N3/063 , G06N3/092 , G06N3/0464
Abstract: 本发明提供了一种面向DNN模型的Crossbar级异构ReRAM加速器配置方法及系统,本发明面向基于ReRAM的存内计算架构,分析模型层中权重参数与Crossbar大小在性能表现中的关系,提出分层异构的思想;使用强化学习算法自动化进行模型异构配置,在不损失模型精度的情况下,能够有效提升Crossbar利用率,降低系统计算延迟和能耗。
-
公开(公告)号:CN113609254A
公开(公告)日:2021-11-05
申请号:CN202110862739.3
申请日:2021-07-29
Applicant: 浙江大学
IPC: G06F16/33 , G06F40/289 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于分层强化学习的聚合式搜索排序方法。本发明采用分层强化学习获得的针对聚合式搜索排序问题的排序策略,可以较大地提升页面内容与查询的相关性。本发明包括如下步骤:1)首先从已标注数据中获取查询、搜索结果,得到它们的特征表示;2)构建聚合式搜索排序模拟器;3)利用模拟器训练分层强化学习模型;4)通过分层强化学习方法确定聚合式搜索排序策略,在搜索引擎中进行应用。和现有技术相比,本发明结合了分层强化学习方法,系统地对聚合式搜索排序问题进行建模,针对不同查询的特征选择合适的搜索结果,形成特别的聚合式搜索排序方法,创造性地提升了排序的工作效率和效果。
-
公开(公告)号:CN112597113B
公开(公告)日:2021-06-01
申请号:CN202110246172.7
申请日:2021-03-05
Abstract: 本发明公开了一种数据快速读取方法、装置、电子设备及存储介质,该方法包括:将数据集划分成若干份图片子集,对每个图片子集进行归一化处理,并分别聚合为一个文件;给数据集中的每个图片分配一个请求编号;通过继承深度学习平台的数据集抽象类,根据所述请求编号分别哈希计算出每个图片所在的文件地址和文件内所述的偏移信息,从而获得每张图片到该图片所属文件的映射;根据所述映射,快速读取数据集中的所有图片。将每个所述图片子集聚合为一个文件,减少了海量小样本元数据管理的开销,优化了数据集的组织形式,极大地提升了图片的读取速度;图片读取时通过多级地址映射,取代了原本低效的海量图片中随机查找的过程,极大地提升了读取速率。
-
公开(公告)号:CN112612803A
公开(公告)日:2021-04-06
申请号:CN202011527095.4
申请日:2020-12-22
Applicant: 浙江大学
Abstract: 本发明提出一种基于持久性内存的键值对存储系统,系统中的每个结点包含键值对数组和两个初始化值相同的bitmap,分别表示为commitBM和shadowBM,其中,所述shadowBM用于插入线程获取键值对数组的写入空位;所述commitBM用于键值对写入后更新,保持一致性。本发明还提供了相应的数据并发插入方法,可以解决键值对存储系统多线程模式下使用锁机制带来的性能问题。该方案采用无锁技术CAS(compare and swap)对临界数据进行修改,使用位图(bitmap)来标识有效的键值对,从而实现无锁条件下的并发插入操作,减少线程间的冲突等待开销,提高整个键值对存储系统的性能。
-
公开(公告)号:CN112597113A
公开(公告)日:2021-04-02
申请号:CN202110246172.7
申请日:2021-03-05
Abstract: 本发明公开了一种数据快速读取方法、装置、电子设备及存储介质,该方法包括:将数据集划分成若干份图片子集,对每个图片子集进行归一化处理,并分别聚合为一个文件;给数据集中的每个图片分配一个请求编号;通过继承深度学习平台的数据集抽象类,根据所述请求编号分别哈希计算出每个图片所在的文件地址和文件内所述的偏移信息,从而获得每张图片到该图片所属文件的映射;根据所述映射,快速读取数据集中的所有图片。将每个所述图片子集聚合为一个文件,减少了海量小样本元数据管理的开销,优化了数据集的组织形式,极大地提升了图片的读取速度;图片读取时通过多级地址映射,取代了原本低效的海量图片中随机查找的过程,极大地提升了读取速率。
-
公开(公告)号:CN112015673A
公开(公告)日:2020-12-01
申请号:CN202011137494.X
申请日:2020-10-22
IPC: G06F12/02
Abstract: 本发明涉及计算机内存计算领域,具体涉及一种基于混合存储的存内计算方法与装置,该方法包括:首先通过混合存储区将数据进行混合存储,然后利用数据转存区通过字线驱动器和控制器对某一指定行的数据进行移位操作,最后基于混合存储和移位操作进行数据的乘法计算。本发明结合非易失存储与内存计算,一方面计算数据以纳秒级的速度从非易失器件中获得,特别是对于深度神经网络推理这种场景,可将模型参数事先存放于非易失存储区,计算时能减少了数据访问的时间,提高了系统性能;另一方面通过改进电路操作流程,减少了不必要的数据搬移时间,使得移位时间也能缩短至纳秒级别,提升了对于乘法计算这种有大量移位操作的计算效率,提高了系统性能。
-
公开(公告)号:CN117349289A
公开(公告)日:2024-01-05
申请号:CN202311387848.X
申请日:2023-10-24
Applicant: 浙江大学
IPC: G06F16/22 , G06F16/901 , G06F16/2458
Abstract: 本发明公开了一种基于候选顶点合并技术的极大二分团枚举方法,获取二分图G(U,V,E),其中U和V是二分图中的两个不相交顶点集,E是边集;有选择地对顶点集U和V进行互换,并有选择地对顶点进行重排序;以U,V为函数初始参数,递归调用计算函数;输出所有极大二分团或极大二分团的计数结果给用户。本发明利用枚举树节点内候选顶点可合并的特性,减少了计算过程中的无效分支与无效计算,提升了极大二分团枚举的效率。同时,本发明所提出的顶点合并技术适用于其他图枚举算法,能够提升如极大团枚举、子图挖掘等算法的计算效率。
-
-
-
-
-
-
-
-
-