-
公开(公告)号:CN105824604A
公开(公告)日:2016-08-03
申请号:CN201510824901.7
申请日:2015-11-24
Applicant: 中国科学院计算技术研究所
CPC classification number: G06F9/38 , G06F9/3871 , G06F9/52
Abstract: 本发明公开一种多输入多输出处理器流水线数据同步装置及方法,所述装置包括:具有多个运算流水级的多输入多输出功能部件,通过执行对输入操作数的运算响应指令;流水线控制器,接收指令,解析指令所需的输入操作数并判断输入操作数的有效性,若全部有效,则发送指令进入功能部件,若至少一个无效,则发送空指令进入功能部件;流水线控制器接收功能部件的输出请求,并判断可行性,若可行,则在芯片的一个节拍周期内接收所述输出请求,并在一定时间内将输出请求转发至存储器,若不可行,则阻塞功能部件的输出。由此,不仅解决了多输入多输出功能部件的流水线同步化问题,同时能很大程度降低处理器访存开销,提高处理器的访存效率。
-
公开(公告)号:CN103294550A
公开(公告)日:2013-09-11
申请号:CN201310206533.0
申请日:2013-05-29
Applicant: 中国科学院计算技术研究所
Abstract: 本发明涉及一种异构多核线程调度方法,包括根据程序的动态特征分别为线程和核生成排序列表,并根据排序列表找出线程和核的最优的稳定匹配,根据该稳定匹配进行线程调度。包括接收运行在该核的线程的特征向量,并据其为该线程给各个核进行选择一个优先级排序;为各个核对各个线程进行排序;接收各个线程和核的排序列表,并找出线程和核的稳定匹配结果;接收该匹配结果,通过操作系统进行调度,将各个线程分配到相应的核上运行。避免了抽样调度带来的巨大开销;将更多影响性能功耗的复杂因素考虑在内,只需要预测的相对关系而非具体值,降低了模型的复杂度的同时也提高了调度的精确性。
-
公开(公告)号:CN119416845A
公开(公告)日:2025-02-11
申请号:CN202411551391.6
申请日:2024-11-01
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种基于斐波那契编码的存算一体神经网络加速方法和加速器,包括:存算一体神经网络加速器的斐波那契编码器将参与神经网络运算任务的激活值和权重值从二进制编码为斐波那契编码,得到斐波那契激活和斐波那契权重,存算一体神经网络加速器中存算一体单元的DAC将斐波那契激活转化为多个模拟电压,并分别施加到存算一体单元中SRAM阵列每一行的字线上;SRAM阵列的每个单元将输入的模拟电压乘以相应的斐波那契权重,得到中间运算结果,SRAM阵列每一列的加法器对中间运算结果进行重新分配电荷以完成内积的累加操作,并将累加操作结果通过存算一体单元的ADC转换为斐波那契编码的数字格式,作为神经网络运算任务的运算结果。
-
公开(公告)号:CN118313322A
公开(公告)日:2024-07-09
申请号:CN202310019857.7
申请日:2023-01-06
Applicant: 中国科学院计算技术研究所
Inventor: 陈云霁 , 承书尧 , 靳鹏威 , 郭崎 , 杜子东 , 张蕊 , 田韵豪 , 胡杏 , 赵永威 , 郝一帆 , 关翔涛 , 韩虎生 , 赵政越 , 刘晰鸣 , 张曦珊 , 褚越杰 , 毛卫龙 , 陈天石
IPC: G06F30/327 , G06F30/3323 , G06F30/337 , G06F18/231
Abstract: 本发明提出一种基于近似电路生成的逻辑电路自动生成方法和系统,包括:获取待实现的黑盒函数,且该黑盒函数包括多组输入信号和输出结果的对应关系;对该黑盒函数进行采样得到函数样本,为该函数样本中每对输入信号和输出结果的对应关系对应关系构建用于表达逻辑电路结构的有向无环图,聚类所有该有向无环图的同层节点,得到多个簇;展开每个簇中的每个节点,合并展开后功能相同的子节点得到样本电路结构图。本发明的逻辑电路生成方法,可用于芯片设计流程中,降低人工参与成本,提高芯片设计效率。
-
公开(公告)号:CN115271090A
公开(公告)日:2022-11-01
申请号:CN202210700253.4
申请日:2022-06-20
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种基于因果关系驱动的分层强化学习框架,包括:因果关系发现模块,用于获取智能体的强化学习环境中各环境变量之间的因果关系,并构建为因果关系图;子目标分层结构构造模块,用于根据该环境变量的变化函数,构建分层强化学习的子目标集合,选取该环境变量中的可控变量,通过该因果关系图从该子目标集合中选出与该可控变量关联的子目标为可达子目标,以所有该可达子目标的逻辑关系为该分层强化学习的分层关系。还提出一种基于因果关系驱动的分层强化学习方法,以及一种数据处理装置。
-
公开(公告)号:CN107632965B
公开(公告)日:2019-11-29
申请号:CN201710967772.6
申请日:2017-10-17
Applicant: 中国科学院计算技术研究所
Abstract: 本公开提供一种可重构的S形运算装置和方法,其中装置包括:运算部分,用于完成运算,包含多个运算单元组,多个所述运算单元组呈X行Y列的阵列式分布,运算单元组间以S形方向和/或逆S形方向传递数据,其中X和Y分别为正整数。通过采用S形和逆S形在运算单元中完成数据的传递,从而能够有效加速神经网络运算的同时,降低了权值的反复读取和部分和反复存取所带来的访存功耗。
-
公开(公告)号:CN108052984B
公开(公告)日:2019-11-08
申请号:CN201711467274.1
申请日:2017-10-30
Applicant: 中国科学院计算技术研究所
Abstract: 本公开提供了一种计数方法,包括:对一FAST R‑CNN或YOLO深度神经网络进行训练;以及利用训练后的FAST R‑CNN或YOLO深度神经网络对待计数的图像中包含的计数目标物体进行计数。本公开还提供了一种计数装置。本公开计数方法及装置应用范围广,可针对任意计数对象进行计数,节省人力并且提供了更高的通用性。
-
公开(公告)号:CN105843775B
公开(公告)日:2018-12-04
申请号:CN201610210082.1
申请日:2016-04-06
Applicant: 中国科学院计算技术研究所
Abstract: 本发明适用于存储技术领域,一种片上数据划分读写方法,其特征在于,包括:数据划分步骤,根据数据划分策略将片上数据存储在不同区域,分别存储在片内存储介质和片外存储介质;预先操作步骤,在进行数据拼接时预先对片内存储数据的片内地址索引进行操作处理;数据拼接步骤,根据数据拼接策略将所述片内存储数据和片外输入数据拼接得到原始数据表示。同时还提供相应的片上数据划分读写系统及其装置。借此,本发明重复数据高效地进行读写,从而降低访存带宽需求,同时提供良好的灵活性,从而降低片上存储开销。
-
公开(公告)号:CN108510064A
公开(公告)日:2018-09-07
申请号:CN201810249506.4
申请日:2016-04-18
Applicant: 中国科学院计算技术研究所
Abstract: 本公开提供了一种包括多个核心处理模块的人工神经网络的处理系统及方法,其中,所述人工神经网络的处理系统,包括:多核心处理模块,其包括多个核心处理模块;其中,该多个核心处理模块共同复用输入神经元和/或权值。本公开包括多个核心处理模块的人工神经网络的处理系统及方法,其在神经网络处理系统中引入多核设计,从而提升神经网络处理系统的运算速度,使得神经网络处理系统性能更高,更加高效。
-
公开(公告)号:CN107818343A
公开(公告)日:2018-03-20
申请号:CN201711037201.9
申请日:2017-10-30
Applicant: 中国科学院计算技术研究所
Abstract: 本公开提供了一种计数方法,包括:对一深度神经网络进行预训练;利用标记图像对预训练后的所述深度神经网络进行重训练,得到二分类的目标检测神经网络;以及利用所述二分类的目标检测神经网络对待计数的图像中包含的计数目标物体进行计数。本公开还提供了一种计数装置。本公开计数方法及装置应用范围广,可针对任意计数对象进行计数,节省人力并且提供了更高的通用性。
-
-
-
-
-
-
-
-
-