-
公开(公告)号:CN115061909B
公开(公告)日:2024-08-16
申请号:CN202210676451.1
申请日:2022-06-15
Applicant: 哈尔滨理工大学
IPC: G06F11/36 , G06F21/60 , G06F21/62 , G06F18/23213 , G06F18/2135 , G06N3/0464 , G06N3/045 , G06N3/098 , G06N3/092
Abstract: 本发明为一种基于联邦强化学习的异构软件缺陷预测方法;该方法首先使用主成分分析法(Principal Component Analysis,PCA)进行数据降维。中心服务器初始化全局参数发送给所有参与方,参与方将该全局参数作为本地强化学习dueling Deep Q Network(dueling DQN)模型的初始参数。所有参与方使用降维数据和上轮全局参数来更新本地dueling DQN模型,中心服务器随机选择参与方,选中的参与方将本地模型参数加入高斯噪声进行差分隐私加密。使用K‑means对选中的参与方进行聚类,通过本地聚合与全局聚合形成全局模型发送给所有参与方。当通信次数到达最大通信轮次或本地dueling DQN模型已经收敛,输出预测结果。本发明在保证数据隐私安全前提下通过结合多方数据模型,有效的提高了异构软件缺陷的预测效果。
-
公开(公告)号:CN116994093A
公开(公告)日:2023-11-03
申请号:CN202310968428.4
申请日:2023-08-02
Applicant: 哈尔滨理工大学
IPC: G06V10/774 , G06V10/82 , G06V10/764 , G06V10/74 , G06N3/0464 , G06N3/08
Abstract: 本发明基于对偶图卷积神经网络的高光谱图像分类方法属于图像分类技术领域;该方法依次执行以下步骤:步骤a、输入待分类的高光谱图像,并使用主成分分析方法去除光谱冗余;步骤b、利用不同窗口尺寸的滑窗进行裁剪,将去除光谱冗余的高光谱图像划分为训练样本、验证样本和测试样本;步骤c、将训练样本输入到残差连接和深度可分离卷积构造的DPRN(Deep Pyramidal Residual Networks,深度金字塔残差网络),进行浅层特征提取;步骤d、将提取的浅层特征输入DGCN(Dual Graph Convolutional Network,对偶图卷积网络)中,利用对偶图结构进一步提取深层特征;步骤e、采用随机梯度下降法进行模型参数训练,将深层特征输入softmax层得到分类结果;本发明利用对偶图卷积网络充分提取了高光谱图像的光谱‑空间维度信息,提高了高光谱图像的分类精度。
-
公开(公告)号:CN116303002A
公开(公告)日:2023-06-23
申请号:CN202310188453.0
申请日:2023-03-01
Applicant: 哈尔滨理工大学
Abstract: 本发明为基于top‑k的通信高效联邦学习的异构软件缺陷预测算法;该方法步骤如下:所有参与方将收到的全局参数进行解码,利用解码后的全局模型梯度参数与各自缺陷数据基于胶囊神经网络(CapsNet)进行本地训练,更新本地模型;各参与方利用高斯差分隐私对本地模型梯度参数进行加密;加密后的梯度参数进行稀疏二值压缩;将非零元素之间的相对距离进行Golomb编码发送到服务器端进行聚合;服务器端将接收到的数据进行解码,并对数据进行聚合;服务器端对聚合后参数进行稀疏二值压缩和Golomb编码并发送回每个参与方。本发明可以在模型预测性能可接受情况下,有效减少通信比特量并提高通信效率。
-
公开(公告)号:CN115524142A
公开(公告)日:2022-12-27
申请号:CN202211235863.8
申请日:2022-10-10
Applicant: 哈尔滨理工大学
IPC: G01M17/007 , B07C5/02 , B07C5/34 , B07C5/36
Abstract: 本发明属于回力车质检技术领域,尤其涉及一种回力车测试装置及其蓄力机构、回收台和测试方法,所述的测试装置,包括:测试台、蓄力机构和回收台,所述的测试台上端设置有蓄力机构,测试台的侧面设置有回收台;由此结构,能够实现,测试台为小车的滑动蓄能提供平台,通过蓄力机构对小车进行拖动蓄力,蓄力后的小车被释放至回收台进行测试,实现了回力车的自动质量检测,避免了专人手动测试,降低了劳动强度,提高了生产效率。
-
公开(公告)号:CN115524141A
公开(公告)日:2022-12-27
申请号:CN202211235839.4
申请日:2022-10-10
Applicant: 哈尔滨理工大学
IPC: G01M17/007
Abstract: 本发明属于玩具生产检测技术领域,尤其涉及一种回力车生产检测装置及其测试带和检测方法;所述检测装置包括:慢传送带、快传送带、传输带和测试带,所述慢传送带连接有快传送带的一端,快传送带的另一端连接有测试带,所述快传送带的上方设置有传输带,所述传输带完全覆盖快传送带,传输带的一端与慢传送带具有重叠区域,传输带的另一端与测试带具有重叠区域,且两个重叠区域的长度均不小于小车的长度;所述检测方法包括小车输送、小车蓄力、小车释放和小车测试的步骤;本发明能够实现回力车自动检测,提高检测效率,节省生产成本。
-
公开(公告)号:CN115508108A
公开(公告)日:2022-12-23
申请号:CN202211235862.3
申请日:2022-10-10
Applicant: 哈尔滨理工大学
IPC: G01M17/007 , B07C5/34 , B07C5/36 , B07C5/38
Abstract: 本发明属于回力车测试技术领域,尤其涉及一种回力车连续测试装置及测试方法,所述的测试装置,包括:测试台、入口车道、螺旋车道、出口车道、转筒、无动力传送带、翻板和测试区,入口车道从螺旋车道的一端接入,螺旋车道的另一端设置有翻板,所述翻板在翻转后能够接入出口车道的一端,出口车道的另一端接入测试区,回力车进入螺旋车道,回力车底部的车轮在螺旋车道上滑动蓄力,在回力车滑动至螺旋车道末端的翻板处后,翻板转动带着回力车接入出口车道,回力车驶入测试区进行测试;避免了手动抓取、拖动蓄力、释放和观察行驶状态的过程,实现回力车的自动质量检测,减小了工作量,提高了质检效率。
-
公开(公告)号:CN107256539B
公开(公告)日:2020-06-02
申请号:CN201710438517.2
申请日:2017-06-12
Applicant: 哈尔滨理工大学
IPC: G06T5/00
Abstract: 本发明涉及图像锐化方法,具体涉及一种基于局部对比度的图像锐化方法,本发明为了解决现有的锐化掩模算法在图像高对比度的边缘会过度增强图像的对比度,从而造成锐化图像的边缘附近存在严重的灰度跳变区域,进而影响锐化图像主观效果的缺点,而提出一种基于局部对比度的图像锐化方法,首先通过RGB转YUV方法提取不包含彩色成分的亮度图像。其次提出一种图像锐化模型,对Y通道数据进行高斯滤波并且计算Y通道的Weber对比度;再次利用一个具有S形状的分段函数对Weber对比度进行拉伸,从而增强了图像的局部细节和纹理特性;最后,利用YUV转RGB方法,将锐化后的Y通道与未经处理的U、V通道数据转换为RGB图像,从而实现图像锐化。本发明适用于图像锐化工具。
-
公开(公告)号:CN107358592A
公开(公告)日:2017-11-17
申请号:CN201710806854.2
申请日:2017-09-08
Applicant: 哈尔滨理工大学
IPC: G06T5/00
Abstract: 本发明涉及一种迭代式全局自适应图像增强方法。本发明为了解决现有的图像增强方法需要手动设置合理的参数,非常难于实现的缺点,而提出一种迭代式全局自适应图像增强方法,包括:输入RGB彩色图像。将RGB彩色图像转换为HSV数据。将HSV数据的V通道数据进行反gamma变换,得到校正后的图像数据。将校正后的数据作为迭代的初始值,进行低照度灰度拉伸,再进行高照度灰度拉伸。判断本次迭代与上一次迭代的迭代参数之差的绝对值是否小于等于预设的阈值,若是,则对迭代得到的结果进行gamma校正,若否,则返回上一步骤继续迭代。对gamma校正后的结果做RGB变化,并在显示器中进行显示。本发明适用于图像增强工具。
-
公开(公告)号:CN107256539A
公开(公告)日:2017-10-17
申请号:CN201710438517.2
申请日:2017-06-12
Applicant: 哈尔滨理工大学
IPC: G06T5/00
Abstract: 本发明涉及图像锐化方法,具体涉及一种基于局部对比度的图像锐化方法,本发明为了解决现有的锐化掩模算法在图像高对比度的边缘会过度增强图像的对比度,从而造成锐化图像的边缘附近存在严重的灰度跳变区域,进而影响锐化图像主观效果的缺点,而提出一种基于局部对比度的图像锐化方法,首先通过RGB转YUV方法提取不包含彩色成分的亮度图像。其次提出一种图像锐化模型,对Y通道数据进行高斯滤波并且计算Y通道的Weber对比度;再次利用一个具有S形状的分段函数对Weber对比度进行拉伸,从而增强了图像的局部细节和纹理特性;最后,利用YUV转RGB方法,将锐化后的Y通道与未经处理的U、V通道数据转换为RGB图像,从而实现图像锐化。本发明适用于图像锐化工具。
-
公开(公告)号:CN119516214A
公开(公告)日:2025-02-25
申请号:CN202310747301.X
申请日:2023-08-24
Applicant: 哈尔滨理工大学
IPC: G06V10/58 , G06V10/40 , G06V10/77 , G06V10/82 , G06F18/213 , G06F18/25 , G06F18/241 , G06N3/0499 , G06N3/048 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种双支路Swin Transformer的高光谱影像与LiDAR数据协同分类方法,该方法包括:S1,针对高光谱影像“图谱合一”的特点,提出了利用3D‑2D混合卷积来提取主成分分析降维后的高光谱影像的浅层空‑谱信息。S2,采用了改进的Swin Transformer网络,在网络中采用ResNet模块以及引进SSR(Spectral Segmentation Recombination,光谱分割重组),消除特征传递中的信息丢失,进一步挖掘高光谱影像的深层空‑谱特征。S3,将另一支路的LiDAR数据通过2D‑2D卷积、改进的Swin Transformer网络,挖掘高程信息;S4,针对高光谱和LiDAR双支路,将CAM(Cross attention module,交叉注意模块)改进为双支路输入,通过高光谱与LiDAR特征交互,通过建立动态的注意力机制,有效地捕捉两种模态之间的关联信息,并将其融合成统一的特征表示。该网络在两个公开高光谱与LiDAR数据集上进行了测试,表现出了良好的分类性能。
-
-
-
-
-
-
-
-
-