-
公开(公告)号:CN119151836B
公开(公告)日:2025-02-25
申请号:CN202411667099.0
申请日:2024-11-21
Applicant: 南京邮电大学
IPC: G06T5/77 , G06T5/60 , G06N3/0455 , G06N3/0464 , G06N3/0499 , G06N3/084
Abstract: 本发明属于计算机视觉技术领域,公开了一种基于多视角融合的稀疏点云补全方法,包括:(1)输入点云数据,提取点云特征,并获取点云数据的重叠区域;(2)计算重叠区域下帧间点云的相似度矩阵,使用加权奇异值分解算法求解帧间的刚性变换;(3)通过累计配准策略实现多视角点云的精准配准;(4)采用3D卷积网格残差网络模块对点云进行粗粒度补全,并进一步利用多层感知机融合3D体素特征并完成细粒度的精确点云补全;(5)通过计算损失函数对模型权重进行优化,提升补全的整体效果与精度。本发明通过融合多视角配准技术与由粗到细的模块化点云补全方法,提高车辆检测的准确性与鲁棒性。
-
公开(公告)号:CN114510646B
公开(公告)日:2025-02-18
申请号:CN202210108891.7
申请日:2022-01-28
Applicant: 南京邮电大学
IPC: G06F16/9536 , G06F18/214 , G06N3/098
Abstract: 一种基于联邦学习的神经网络协同过滤推荐方法,无需集中收集用户的个人数据并且上传到受信的中心服务器来进行存储与训练模型,仅在本地进行数据训练,然后在中心服务器端协同多个本地模型进行优化,进而聚合多个本地模型的中间参数来得到服务端全局较优的模型,并下发到每个终端上。本地参与端训练中,本方法有别于传统的基于聚类、最近邻和矩阵分解等方法,按一定比例将数据集转换为隐式反馈数据集,构建神经协同过滤通用框架NCF,输入one‑hot编码用户和项目向量,输出预测结果,并对上传更新的权重进行差分隐私加噪。本方法在保证数据模型的隐私安全前提下,有效的提高了推荐效果。
-
公开(公告)号:CN119065860B
公开(公告)日:2025-01-24
申请号:CN202411564564.8
申请日:2024-11-05
Applicant: 南京邮电大学
Abstract: 本发明属于深度学习技术领域,公开了一种3D集成的GPU‑FPGA异构系统及计算加速方法,异构系统包括GPU芯粒、FPGA芯粒和封装基板,GPU芯粒堆叠在FPGA芯粒之上,GPU芯粒和FPGA芯粒使用铜混合键合通过硅通孔连接在一起,硅通孔穿过GPU芯粒和FPGA芯粒垂直电连接且以背对背的方式连接在一起,FPGA芯粒通过微凸点连接到所述封装基板上,计算加速方法为:将用于将FPGA芯粒配置为批量归一化计算单元,在数据从GPU芯粒发送到主存控制器和从主存控制器加载数据到GPU芯粒之前处理数据,减少GPU芯粒对内存的读取和写入次数。本发明能够提高终端GPU处理深度学习和科学计算的能力。
-
公开(公告)号:CN117876447A
公开(公告)日:2024-04-12
申请号:CN202410285198.6
申请日:2024-03-13
Applicant: 南京邮电大学
IPC: G06T7/33
Abstract: 本发明属于计算机视觉技术领域,公开了一种基于微表面融合与对齐的三维点云配准方法,该方法包括:(1)将点云数据映射到一个单位球表面,通过交叉采样的方式获取无对应点对的目标点云和源点云,(2)获取初始变换矩阵和重叠掩码,结合自注意力机制和交叉注意力机制获取源点云和目标点云的高维特征与相似矩阵,(3)根据相似矩阵和重叠掩码,计算源点云和目标点云之间的伪对应点对,计算粗粒度的旋转矩阵和平移向量,(4)采用点到平面的ICP算法进一步对齐源和目标点云,根据细粒度配准结果,分析源点云和目标点云融合后重叠区域的微表面平面厚度,优化模型的网络权重参数。本发明提供点云配准质量与鲁棒性,提高配准的精度和稳定性。
-
公开(公告)号:CN114510646A
公开(公告)日:2022-05-17
申请号:CN202210108891.7
申请日:2022-01-28
Applicant: 南京邮电大学
IPC: G06F16/9536 , G06K9/62 , G06N3/08
Abstract: 一种基于联邦学习的神经网络协同过滤推荐方法,无需集中收集用户的个人数据并且上传到受信的中心服务器来进行存储与训练模型,仅在本地进行数据训练,然后在中心服务器端协同多个本地模型进行优化,进而聚合多个本地模型的中间参数来得到服务端全局较优的模型,并下发到每个终端上。本地参与端训练中,本方法有别于传统的基于聚类、最近邻和矩阵分解等方法,按一定比例将数据集转换为隐式反馈数据集,构建神经协同过滤通用框架NCF,输入one‑hot编码用户和项目向量,输出预测结果,并对上传更新的权重进行差分隐私加噪。本方法在保证数据模型的隐私安全前提下,有效的提高了推荐效果。
-
公开(公告)号:CN120031969A
公开(公告)日:2025-05-23
申请号:CN202510508373.8
申请日:2025-04-22
Applicant: 南京邮电大学
IPC: G06T7/73 , G06T7/33 , G06T17/05 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本申请属于计算机视觉技术领域,公开了一种基于多重对应点协同配准的激光语义同步定位与建图方法,包括:将激光雷达点云数据映射到鸟瞰极坐标系上,提取逐点高维特征;将高维特征输入至U型网络中,为每个激光雷达点云预测相应类别标签,并根据标签把点云划分为静态点云、动态点云和地面点云;使用核心点卷积和注意力机制同步捕获静态点云帧内与帧间的的节点特征;使用帧内与帧间节点的节点特征,构建松弛相似度矩阵,求解跨帧节点的最优匹配关系;搜索局部点云精确对应关系并解算姿态估计,同时协同地面点云配准方法优化位姿。本申请通过语义引导的多层次对应点配准机制,实现动态复杂场景下的高精度三维运动估计与地图构建。
-
公开(公告)号:CN119065860A
公开(公告)日:2024-12-03
申请号:CN202411564564.8
申请日:2024-11-05
Applicant: 南京邮电大学
Abstract: 本发明属于深度学习技术领域,公开了一种3D集成的GPU‑FPGA异构系统及计算加速方法,异构系统包括GPU芯粒、FPGA芯粒和封装基板,GPU芯粒堆叠在FPGA芯粒之上,GPU芯粒和FPGA芯粒使用铜混合键合通过硅通孔连接在一起,硅通孔穿过GPU芯粒和FPGA芯粒垂直电连接且以背对背的方式连接在一起,FPGA芯粒通过微凸点连接到所述封装基板上,计算加速方法为:将用于将FPGA芯粒配置为批量归一化计算单元,在数据从GPU芯粒发送到主存控制器和从主存控制器加载数据到GPU芯粒之前处理数据,减少GPU芯粒对内存的读取和写入次数。本发明能够提高终端GPU处理深度学习和科学计算的能力。
-
公开(公告)号:CN117876447B
公开(公告)日:2024-05-07
申请号:CN202410285198.6
申请日:2024-03-13
Applicant: 南京邮电大学
IPC: G06T7/33
Abstract: 本发明属于计算机视觉技术领域,公开了一种基于微表面融合与对齐的三维点云配准方法,该方法包括:(1)将点云数据映射到一个单位球表面,通过交叉采样的方式获取无对应点对的目标点云和源点云,(2)获取初始变换矩阵和重叠掩码,结合自注意力机制和交叉注意力机制获取源点云和目标点云的高维特征与相似矩阵,(3)根据相似矩阵和重叠掩码,计算源点云和目标点云之间的伪对应点对,计算粗粒度的旋转矩阵和平移向量,(4)采用点到平面的ICP算法进一步对齐源和目标点云,根据细粒度配准结果,分析源点云和目标点云融合后重叠区域的微表面平面厚度,优化模型的网络权重参数。本发明提供点云配准质量与鲁棒性,提高配准的精度和稳定性。
-
公开(公告)号:CN115936099A
公开(公告)日:2023-04-07
申请号:CN202211590899.8
申请日:2022-12-12
Applicant: 南京邮电大学
IPC: G06N3/082 , G06N3/08 , G06N3/0464
Abstract: 一种神经网络的权重压缩和集成标准的剪枝方法,其中,对于非结构化剪枝,针对传统的一次性剪枝得到压缩网络,可能会因为剪枝阈值设置过大而导致精度难以恢复的缺陷,提出了权重压缩剪枝方法,通过设置较低的阈值,多次对权重进行压缩再剪枝,使得在有效保持精度的情况下获得比传统方案更高的剪枝比例。对于结构化剪枝,针对使用单一一种卷积核重要性度量标准,可能对具体任务产生片面性影响的缺陷,提出了集成标准的剪枝方案,通过结合多种重要性度量标准,来使用最后的集成标准进行剪枝。
-
公开(公告)号:CN119067186B
公开(公告)日:2025-01-24
申请号:CN202411548223.1
申请日:2024-11-01
Applicant: 南京邮电大学
IPC: G06N3/063 , G06N3/0499 , G06F15/78
Abstract: 本发明属于深度神经网络技术领域,公开了一种针对多芯粒的存内计算数模混合DNN加速器的优化方法,包括:步骤1、模型预处理:对进行计算的DNN模型进行预处理,根据多芯粒的存内计算数模混合DNN加速器中的数字芯粒和存内运算芯粒确认深度神经网络DNN模型每一层的计算方式;步骤2、任务图谱的构建与优化:根据计算资源和存储资源的资源约束,将DNN模型的任务负载划分为计算和存储任务,构成任务图谱;步骤3、将步骤2构成的任务图谱转换为实际运算的执行图谱,并对执行图谱进行优化。本发明可以有效减少单个推理的延迟,同时提高整体运算的吞吐量,减少整体通信量,减少片上网络拥塞,提高运算性能。
-
-
-
-
-
-
-
-
-