-
公开(公告)号:CN116797785A
公开(公告)日:2023-09-22
申请号:CN202310327951.9
申请日:2023-03-30
Applicant: 杭州电子科技大学丽水研究院
IPC: G06V10/26 , G06V10/44 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种基于特征提炼的伪装物体检测方法,首先获取伪装物体检测数据集,进行数据预处理;构建基于特征提炼的伪装物体检测模型;再通过训练集对构建好的基于特征提炼的伪装物体检测模型训练,对预测结果使用结构损失函数进行监督学习。最后对模型训练结果加以验证。本发明基于特征提炼的方式来构建伪装物体检测模型,对伪装物体图像的特征进行增强处理以及去除背景噪声,利用结构损失函数对结果进行监督学习,使得预测结果更加准确,具有较强的鲁棒性,从而实现对伪装物体的精确分割,对社会具有重要意义。
-
公开(公告)号:CN116788248A
公开(公告)日:2023-09-22
申请号:CN202310842946.1
申请日:2023-07-11
Applicant: 杭州电子科技大学
Abstract: 本发明涉及基于自适应动态规划的智能车辆鲁棒自适应巡航控制方法,针对存在未知匹配扰动的智能车辆,建立车辆的纵向动力学模型和跟踪误差动力学模型;然后根据最优控制原理,设计了一种鲁棒最优控制器实现智能车辆的自适应巡航,并使用自适应动态规划方法构建了一个评价网络,用于逼近控制器的未知参数,从而求解最优控制输入。本发明引入了自适应动态规划方法,所构建的评价网络可以很好地逼近最优成本函数,而无需通过HJB方程求解,极大地减少了计算量,且提出的控制策略能够很好的保证车辆的渐进稳定性和驾乘舒适性。
-
公开(公告)号:CN116740179A
公开(公告)日:2023-09-12
申请号:CN202310782568.2
申请日:2023-06-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于区块随机蕨编码的精度自监督视觉重定位方法。包括阶段一,区块随机蕨编码与匹配:首先进行图像区块的构建,然后进行区块随机蕨的编码,最后完成区块编码信息的匹配,获得关键帧候选列表中。阶段二,精度自监督重定位位姿优化:首先进行基于历史关键帧的位姿估计,之后进行位姿精度的自识别,对于高精度的重定位位姿直接输出,对于低精度甚至完全错误的重定位位姿,寻找次优匹配结果重新计算其重定位位姿,直至输出正确的重定位位姿。本发明方法在大视角差下的新视点上也能够成功的实现重定位,极大的提高了重定位在使用过程中使用体验,使得用户只需大致扫描到原来历史区域,便能设备够正确的进行重定位。
-
公开(公告)号:CN116597890A
公开(公告)日:2023-08-15
申请号:CN202310662530.1
申请日:2023-06-06
Applicant: 杭州电子科技大学
IPC: G16B5/00 , G06N3/048 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于自优化激活函数的生物信息时间序列预测方法,首先构建一个包含多种激活函数候选集;然后搭建自优化激活函数模块;将新的激活函数应用于循环神经网络中,用于实现非线性变换;最后通过改进后的循环神经网络对生物信息时间序列进行预测。本发明提出了一种新颖的自优化激活函数,使循环神经网络的每个激活函数能随着任务的不同自我优化改变自生结构,实现了循环神经网络设计和优化的更加灵活。与传统方法相比,本发明不仅提高了循环神经网络性能,还有效减少了选择激活函数所需的时间和成本。
-
公开(公告)号:CN111612802B
公开(公告)日:2023-06-20
申请号:CN202010359715.1
申请日:2020-04-29
Applicant: 杭州电子科技大学
IPC: G06T7/12 , G06T7/181 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于现有图像语义分割模型的再优化训练方法及应用。本发明对图像语义分割神经网络模型的最后一层输出,对接近语义边缘的所有像素截取所预测的概率最高的若干个预测标签,通过再优化模型进行特征距离测算,取最近的标签作为该像素的修正预测标签,从而达到提高语义分割预测准确率的目的。本发明提出了基于再识别的边界偏差消除方法,消除了语义边缘邻近区域的不确定性,是对成熟的图像语义分割模型的一次改进。再优化模型专注于语义边缘的修正任务。另外只针对图像语义边缘区域进行优化,在更加具有针对性的前提下,还不会给模型带来过重的运算时间和空间的负担。
-
公开(公告)号:CN111612051B
公开(公告)日:2023-06-20
申请号:CN202010364601.6
申请日:2020-04-30
Applicant: 杭州电子科技大学
IPC: G06V10/764 , G06V10/82 , G06N3/042 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于图卷积神经网络的弱监督目标检测方法。本发明通过引入只检测到物体一部分的伪标注框作为弱监督目标检测网络的监督条件,通过多实例网络只检测到物体的一部分而不是覆盖全部物体;利用图卷积神经网络把检测为物体框的邻近且相交的候选框学习物体框的特征表示;因为和物体框相交的候选框也是物体的一部分,通过学习检测为物体的框的特征表示来改变候选框的特征表示,邻近的框学习检测为物体的框的特征;候选框和检测为物体框的特征表示就会相似,弱监督网络测试的时候会把与检测为物体框的邻近候选框也分类为目标物体;从而检测出的目标框覆盖更大的面积和更全的物体,提高弱监督目标检测的精度。
-
公开(公告)号:CN116245968A
公开(公告)日:2023-06-09
申请号:CN202310210835.9
申请日:2023-03-07
Applicant: 杭州电子科技大学丽水研究院
Abstract: 本发明公开了基于Transformer的LDR图像生成HDR图像的方法,首先构建基于Transformer的HDR图像生成模型,包括浅层特征对齐模块、金字塔融合模块和图像重建模块;通过浅层特征对齐模块进行特征对齐,通过金字塔融合模块对对齐后的特征进行处理,获得不同尺度的特征,将金字塔融合模块处理后的不同尺度的特征融合成一个尺度;再将融合后的特征送入图像重建模块进行图像重建;最后将图像重建模块输出的结果使用卷积操作得到3层的HDR最终图片。本发明可以更好地学习非局部特征并自适应地减少虚拟阴影。本发明提出了一种新的金字塔融合模块,使图像可以与较低计算成本和根据全局信息。
-
公开(公告)号:CN111612832B
公开(公告)日:2023-04-18
申请号:CN202010355040.3
申请日:2020-04-29
Applicant: 杭州电子科技大学
IPC: G06T7/593 , G06N3/0464 , G06F3/048 , G06N3/08
Abstract: 本发明公开了一种利用多任务互补提高深度估计准确性的方法。本发明方法使用SFM系统得到的稀疏的深度图像作为辅助输入,与RGB图像一同输入到卷积神经网络,作为辅助线索提高深度估计的准确性。将稀疏的深度图像和RGB图像当作有噪声的数据,通过去噪编码器对输入数据进行编码,提取其中的特征,将提取的四组特征串联后进行共享,解决了单独的RGB图像以基于卷积神经网络的方法进行深度估计时没有可靠且鲁棒的线索的问题;将编码后的特征通过解码器重建为精确的深度图,得到了更加精确的深度估计结果。
-
公开(公告)号:CN111127386B
公开(公告)日:2023-04-18
申请号:CN201910610718.5
申请日:2019-07-08
Applicant: 杭州电子科技大学
IPC: G06T7/00 , G06V10/40 , G06V10/766 , G06V10/772 , G06V10/82
Abstract: 本发明公开了一种基于深度学习的图像质量评价方法,包括如下步骤:步骤1:提取结构性特征图;步骤2:提取自然性特征图;步骤3:提取自由能特征图;步骤4:根据每张图对应的所有特征图设计神经网络框架。计算图像梯度做为图像的结构性特征,其次基于自然性特性提取图像的归一化特性做为自然性特征,最后基于大脑的自由能原理,对输入图像和大脑对它的预测图像之间的差异做为图像的高级特征。在特征提取完之后,利用一组无失真图像学习出一个模型并利用该模型来预测图像的质量。失真图像的质量被定义为它的模型与学习到的无失真模型之间的距离。
-
公开(公告)号:CN113514944B
公开(公告)日:2023-02-17
申请号:CN202110350189.7
申请日:2021-03-31
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种快速光谱显微成像装置,包括依次设置的宽光谱白光光源、载物台、显微物镜、分光棱镜;沿分光棱镜反射光方向设置有第一视场光阑、第一4F中继透镜和第一灰度相机;沿分光棱镜出射光方向设置的第二视场光阑、第二4F中继透镜、闪耀光栅、带通滤波器、第三4F中继透镜、微透镜阵列、第四4F中继透镜和第二灰度相机。第二4F中继透镜的两组镜片之间设置有孔径光阑。本发明可以实现对三维光谱图像的单次曝光获取,并且两个通道分别获取高空间分辨率图像和低分辨率光谱图像,弥补像素分区复用引起的空间分辨率损失;发明装置可以实时获取场景光谱数据并且实时显示,数据获取和数据处理过程没有时间延迟。
-
-
-
-
-
-
-
-
-