-
公开(公告)号:CN116890339A
公开(公告)日:2023-10-17
申请号:CN202310917924.7
申请日:2023-07-25
Applicant: 杭州电子科技大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于极大化好奇心的子目标树机械臂避障路径规划方法,按如下步骤:步骤1:创建和注册强化学习环境;步骤2:构造子目标树的规划策略的奖励函数;步骤3:定义好奇心的评估方法,评估子目标的好奇心大小;步骤4:设计好奇心平衡模块;步骤5:设置参数;步骤6:在仿真环境中训练策略;步骤7:保存训练好的参数文件;步骤8:导入参数、调用模型、递归预测子目标生成子目标序列;步骤9:按照子目标序列依次进行规划,完成路径的规划。本发明能在复杂环境更高效地生成无障碍路径,提高了规划效率。
-
公开(公告)号:CN116862893A
公开(公告)日:2023-10-10
申请号:CN202310919640.1
申请日:2023-07-25
Applicant: 杭州电子科技大学
IPC: G06T7/00 , G06T7/277 , G06V10/774
Abstract: 本发明提供了一种基于动态特征中心的工业零件异常检测方法及系统,方法包括以下步骤:S1.获取并整理划分工业零件数据集,制作包含大量正常样本和少量异常样本的数据集;S2.对数据集进行预处理;S3.将数据集输入到特征提取网络,进行特征提取;S4.根据初始化得到的特征中心,利用卡尔曼滤波动态移动特征中心;S5.重复上述步骤S1‑S4,最小化损失,更新迭代训练,直到模型达到收敛,迭代结束,保存模型;S6.将待检测的工业零件图片输入到训练好的模型并执行S1‑S3的处理步骤;S7.计算测试图像的特征向量与特征中心的之间距离,输出异常分数;S8.通过比较异常分数与设定的阈值的大小,得到异常检测结果。本发明缓解了模型过拟合的问题,提高了检测效率和准确率。
-
公开(公告)号:CN114337648A
公开(公告)日:2022-04-12
申请号:CN202111645486.0
申请日:2021-12-30
Applicant: 杭州电子科技大学
IPC: H03K19/20
Abstract: 本发明涉及一种基于三值忆阻器的九选一数据选择器电路。本发明包括两个输入忆阻器(Min1,Min2),一个输出忆阻器(Mout),存储9路已知的三值数据的九个忆阻器D0‑D8,两个电压源(V,Vcopy)以及十八个电压控制型开关(S1~S18),形成了两个输入端和一个输出端的电路结构。本发明设计的三值数据选择器电路模结构清晰简单,易于实现。该电路模型可用于多值数字逻辑运算等诸多领域中的应用研究,具有重要意义。
-
公开(公告)号:CN113111797A
公开(公告)日:2021-07-13
申请号:CN202110417595.0
申请日:2021-04-19
Applicant: 杭州电子科技大学
Abstract: 本发明结合自编码器与视角变换模型的跨视角步态识别方法:采集多视角多携带物状态的步态数据集;训练得到去携带物编码器和视角判别器;将待测目标在多个观测视角下的步态能量图输入编码器得到纯步态特征,将步态特征拼接为步态特征矩阵,通过奇异值分解得到角度变换与身份信息向量;通过带有身份标签的步态组输入卷积神经网络中进行识别,得到识别模型;将待识别目标的步态能量图输入自编码器与观测视角判别器,得到无携带物步态能量图与观测视角信息,一同输入视角投影模型并转换至对比视角下,与在对比视角下来自不同目标的步态能量图依次组成步态能量图组,输入识别模型,取得分最高组合为识别结果,完成识别。
-
公开(公告)号:CN112331232A
公开(公告)日:2021-02-05
申请号:CN202011228473.9
申请日:2020-11-06
Applicant: 杭州电子科技大学
IPC: G10L25/63 , G10L21/0208 , G10L21/0232 , G10L25/03 , G10L25/18 , G10L25/30 , G10L25/45
Abstract: 本发明公开了一种结合CGAN谱图去噪和双边滤波谱图增强的语音情感识别方法,包括:S1、获取干净语谱图以及加噪语谱图;S2、将干净语谱图和加噪语谱图输入基于矩阵距离的条件生成对抗网络进行训练,得到去噪模型;S3、利用去噪模型对加噪语谱图进行去噪处理,分别进行两个不同尺度的双边滤波,得到低、高尺度滤波图,低、高尺度滤波图相差再乘以增强系数,然后与低尺度滤波图相加,得到细节增强的语谱图;S4、将细节增强的语谱图输入卷积神经网络模型中进行分类,得到分类模型;S5、待识别语音的语谱图经过步骤S3中对语谱图的处理,得到的细节增强的语谱图输入分类模型,得到语音情感分类结果。本发明有效实现语音情感的识别。
-
公开(公告)号:CN110136202A
公开(公告)日:2019-08-16
申请号:CN201910422933.2
申请日:2019-05-21
Applicant: 杭州电子科技大学
Abstract: 本发明提供一种基于SSD与双摄像头的多目标识别与定位方法,包括:基于张氏标定法的相机标定,利用内参使用EPnP算法和Levenberg-Marquardt算法计算得到精确相机位姿;利用深度学习目标检测框架SSD训练多目标检测模型,可以精准识别双摄像头视线内的多目标;利用SIFT特征把左右摄像机检测出的目标匹配,根据得到的相机位姿,求解目标在现实世界中的位置,实现目标的定位。本发明在室内定位导航中利用深度学习训练模型对多目标进行检测,识别的目标可以包括但不限于行人、狗、车等;既能够实现双摄像头在远距离情况下的定位,又利用了深度学习识别目标的鲁棒性,实现双摄像头多目标快速识别和定位。
-
公开(公告)号:CN117745815A
公开(公告)日:2024-03-22
申请号:CN202311696066.4
申请日:2023-12-11
Applicant: 杭州电子科技大学
IPC: G06T7/73 , G06V10/46 , G06V10/75 , G06N3/0464
Abstract: 本发明提供一种等变性注意力迭代稀疏采样的物体6D姿态估计方法及系统,方法:S1.制作观察图的数据集;S2.从观察图的RGB上采样一组2D坐标序列,并将其与深度图对齐,获得采样点的3D坐标;S3.随机初始化一个姿态作为渲染位姿;S4.设置渲染器的渲染位姿,生成在采样2D坐标上对应的渲染像素和3D坐标;S5.将观察像素、渲染像素以及它们对应的3D坐标输入到等变性注意力迭代网络的模型中,输出观察图和渲染图的残差位姿;S6.将残差位姿反馈到上一次的渲染位姿,得到新的渲染位姿,并重复执行S4‑S5;S7.重复执行S2‑S6,对数据集进行迭代训练,直到模型收敛,结束迭代并保存模型的权重文件;S8.利用训练好的模型对测试图片进行6D位姿估计。
-
公开(公告)号:CN117636389A
公开(公告)日:2024-03-01
申请号:CN202311545798.3
申请日:2023-11-20
Applicant: 杭州电子科技大学
IPC: G06V40/10 , G06V10/44 , G06V10/24 , G06V10/34 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/0895
Abstract: 本发明公开了一种基于仿射变换的自监督人体关键点检测方法,包括如下步骤:S1.采集得到不同人物、不同姿态的行人图像及视频数据集,并对数据集进行预处理操作;S2.预定义人体关键点模板;S3.构建卷积神经网络;S4.通过编码器网络对行人图像样本进行姿态特征提取,利用姿态特征生成仿射矩阵;S5.使用仿射矩阵对关键点模板进行仿射变换,得到与行人图像样本中的人体姿态相对应的关键点,并设置边沿损失对仿射矩阵的生成进行约束;S6.将检测到的人体关键点按预定义的语义信息进行一一连接,生成人体骨架热图;S7.将随机掩膜后的行人图像样本与其对应的人体骨架热图在通道维度上进行拼接后馈送至解码器,利用解码器修复掩膜后的图像样本,得到修复的图像。
-
公开(公告)号:CN111259940B
公开(公告)日:2023-04-07
申请号:CN202010024750.8
申请日:2020-01-10
Applicant: 杭州电子科技大学
IPC: G06V10/764 , G06V10/82 , G06V10/774 , G06N3/0455 , G06N3/0464 , G06N3/045 , G06N3/084
Abstract: 本发明公开了一种基于空间注意力地图的目标检测方法,包括:将测试图像输入预先训练好的Faster RCNN网络,自下向上逐层进行特征提取、自上向下逐层进行高层语义信息传播,得到目标的空间特征信息和特征梯度信息;对目标的空间特征信息和特征梯度信息进行加权得到目标高层语义信息引导的注意力地图;对目标空间特征信息进行数据预处理,得到目标感兴趣区域图;叠加目标感兴趣区域图和注意力地图,得到目标注意力地图;将目标注意力地图与通道特征权重进行计算得到多通道空间注意力地图;将多通道空间注意力地图与目标空间特征信息结合得到新的目标空间特征信息;将新的目标空间特征信息联合RPN网络的目标候选框提取出进行目标分类和边界框回归的特征。
-
公开(公告)号:CN110136175A
公开(公告)日:2019-08-16
申请号:CN201910422946.X
申请日:2019-05-21
Applicant: 杭州电子科技大学
Abstract: 本发明提出一种基于神经网络的室内典型场景匹配定位方法,包括:步骤一、在服务器端建立标准典型场景定位图像库;步骤二、采用Siamese深度神经网络模型,通过大量数据训练,使神经网络从数据中学习判断相似性度量的方法;步骤三、深度神经网络输出特征向量,利用特征向量计算与标准典型场景图像库的相似度,通过相似度大小来判断典型场景匹配程度的高低,评估模型的好坏;步骤四、将训练好的模型搭载入服务器,获取视频数据送入服务器中训练好的深度神经网络进行计算相似度,判别当前所在的位置。本发明所述方法具有训练效率高、收敛性强、建模精度高、匹配效果好、满足复杂环境等优点,可准确、高效地实现设备在线室内典型场景中的匹配定位。
-
-
-
-
-
-
-
-
-