神经网络加速器
    1.
    发明公开

    公开(公告)号:CN116432724A

    公开(公告)日:2023-07-14

    申请号:CN202310302915.7

    申请日:2023-03-23

    Abstract: 本公开提供了一种神经网络加速器,包括:第一计算引擎,用于对待识别图像进行卷积处理,得到初始识别结果;至少一个第二计算引擎,用于对所述初始识别结果进行卷积处理,得到所述图像识别结果,其中,所述第一计算引擎和多个所述第二计算引擎依次以串联的形式连接,所述第一计算引擎和所述第二计算引擎中的每一个计算引擎对应神经网络算法的一层。

    多通道稀疏数据的预处理装置及方法

    公开(公告)号:CN116647339A

    公开(公告)日:2023-08-25

    申请号:CN202310760347.5

    申请日:2023-06-26

    Abstract: 本发明提供了一种多通道稀疏数据的预处理装置及方法,涉及集成电路与信息通信领域,该预处理装置包括:输入处理模块,包括有效数据缓存器和有效数据绝对地址获取器,有效数据缓存器用于提取原始稀疏数据中的有效数据;有效数据绝对地址获取器用于获取接收端有效信号和有效数据的绝对地址;编码处理模块,包括量子信号存储器和编码逻辑运算器;量子信号存储器用于根据绝对地址从光量子信号池中获取发送端有效信号;编码逻辑电路用于根据接收端有效信号和发送端有效信号进行逻辑运算,得到单通道有效数据;输出处理模块,包括多通道有效数据缓存器,用于将单通道有效数据按照多通道稀疏数据的稀疏轨迹输出。

    基于现场可编程门阵列的低资源开销TCP/IP协议栈装置

    公开(公告)号:CN116708604A

    公开(公告)日:2023-09-05

    申请号:CN202310912039.X

    申请日:2023-07-24

    Abstract: 本发明提供了一种基于现场可编程门阵列的低资源开销TCP/IP协议栈装置,涉及网络通信传输技术领域,该低资源开销TCP/IP协议栈装置包括:UDP模块,用于封装和解析UDP协议中的用户数据,得到第一报文数据段;TCP模块,用于封装和解析TCP协议中的用户数据,得到第二报文数据段;仲裁器,用于确定第一报文数据段或第二报文数据段传输的优先级;数据链路层模块,用于封装和解析第一报文数据段或第二报文数据段,得到第一报文数据帧或第二报文数据帧。通过在原始TCP/IP协议的基础上对协议进行了简化,在满足点对点通信要求的情况下设计了轻量级硬件TCP/IP协议栈,能够在消耗少量逻辑资源的情况下实现高效便捷的网络数据传输。

    基于流水线结构的计算引擎加速装置、方法、设备及介质

    公开(公告)号:CN116933852A

    公开(公告)日:2023-10-24

    申请号:CN202310912140.5

    申请日:2023-07-24

    Abstract: 本发明提供了一种基于流水线结构的计算引擎加速装置、方法、设备及介质,神经网络硬件加速技术领域,该装置包括:循环行缓冲器,包括:第一多路选择器,用于确定输入特征图的n个特征图像素点的存储位置,其中,n为大于0的正整数;m个随机存取存储器,用于根据存储位置缓存n个特征图像素点,其中,m为大于0的正整数;第二多路选择器,用于对写入m个随机存取存储器的特征图像素点进行输出;流驱动填充器,用于根据特征图像素点的位置和神经网络中卷积层的边界参数,对第二多路选择器输出的特征图像素点进行边界填充;计算单元阵列,用于对填充后的特征图像素点进行卷积计算;权重存储器,用于缓存神经网络的权重数据。

Patent Agency Ranking