-
公开(公告)号:CN110647905A
公开(公告)日:2020-01-03
申请号:CN201910711601.6
申请日:2019-08-02
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于伪脑网络模型下的涉恐场景识别方法。本发明包括如下步骤:步骤1、通过CNN图像分类器,得到涉恐场景图片概率值;步骤2、通过伪脑网络图像分类器,得到涉恐场景图片概率值;步骤3、将CNN图像分类器分类结果和伪脑网络图像分类器分类结果输入给神经网络融合模型,输出场景事件分类结果,涉恐场景=1,非涉恐场景=0。本发明将深度学习算法与等效伪脑网络模型相结合。深度学习网络用于机器视觉图像分类,伪脑网络模型替代人脑对视听觉信息高级特征进行融合,实现环境物体感知和环境认知。
-
公开(公告)号:CN110610650A
公开(公告)日:2019-12-24
申请号:CN201910796731.4
申请日:2019-08-27
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于深度学习和深度相机的点云语义地图的构建方法。本发明步骤:1、构建神经网络的必须模块;2、搭建神经网络;3、训练神经网络模型;采用semantic3D为训练集,使用反向传播和随机梯度下降,训练神经网络,最小化损失函数,从而不断优化网络权重连接;4、进行相机标定,得到相机的内参,首先利用深度相机采集点云数据,通过相机的内参矩阵将采集到的深度图转换成点云;5、将点云输入到训练好的神经网络当中,使用含有语义信息的点云进行语义地图的构建,从而可以得到语义标签的点云语义地图。本发明能够更加实用的为机器人室内导航和定位提供语义这样的高级特征,便于精准的确定机器人的位置,以及更为精准的回环检测。
-
公开(公告)号:CN110598537A
公开(公告)日:2019-12-20
申请号:CN201910710059.2
申请日:2019-08-02
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于深度卷积网络的视频显著性检测方法。本发明步骤:1:以视频的当前帧及其对应的光流图像作为特征提取网络的输入;2:将当前帧和对应的光流图像串接后得到的张量作为深度卷积网络输入提取特征;3:设计特征集成网络用于融合特征图,并得到对视频显著性检测的粗略估计;同时为了获得蕴含在特征图中卷积信息的补充性信息,特征集成网络引入原始信息,包括当前帧和对应的光流图像;4:模型中引入轮廓提取网络进行空域细化,轮廓提取网络采用线下训练方式,并用于检测物体的边缘轮廓。本发明为特征集成提供了丰富的辅助信息。进一步提升显著性图质量,使生成的显著性图能够以明晰的边界完整地凸显视频序列中的显著性区域。
-
公开(公告)号:CN110501071A
公开(公告)日:2019-11-26
申请号:CN201910712003.0
申请日:2019-08-02
Applicant: 杭州电子科技大学
IPC: G01J3/28
Abstract: 本发明公开了一种基于模糊编码的压缩高光谱掩膜优化方法。本发明通过控制掩膜与聚焦平面之间的距离来控制掩膜编码的模糊程度,并将模糊程度进行量化,从而使用模糊导致灰度值变化之后的掩膜编码代替理论上的原始掩膜编码,使得重建时所用的编码更加接近实际编码。本发明只需通过系统的数值孔径、物镜焦距、光源波长、物镜放大倍数等信息来估算系统点扩散函数分布情况,并且计算出不同离焦位置处的实际模糊编码分布情况,使得投影矩阵最接近于实际数值,以实现投影矩阵的准确掌握,利于重建。仿真实验结果表明,相比于通常使用的二值化掩膜,优化后的掩膜编码更加接近于实际情况,重建图像的信噪比与光谱准确度也明显得到提高。
-
公开(公告)号:CN110415207A
公开(公告)日:2019-11-05
申请号:CN201910364614.0
申请日:2019-04-30
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于图像失真类型的图像质量评估的方法。本发明用DCT方法把高维度图像的信息量在低维度图像上表示出来,提取出失真特征;然后利用支持向量机的方法,建立标签为1,2,3,4,…,n的SVM分类器中,将失真类型分为n种;将图像的失真特征输入,通过决策函数对所选图像进行分类;在判断出图像失真类型后,再按评估模型计算得出图像质量的评价指标IQA。本发明针对每一种失真类型建立一套评价模型,从而提高图像质量的客观评价效率。
-
公开(公告)号:CN110378938A
公开(公告)日:2019-10-25
申请号:CN201910548289.3
申请日:2019-06-24
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于残差回归网络的单目标跟踪方法。本发明包括如下步骤:步骤1、对原始训练数据进行预处理;步骤2、将预处理后的数据输入残差回归网络模型,进行参数训练,并确定好网络参数;步骤3、确定好网络参数后,将待跟踪视频序列按照与步骤1相同的方式进行预处理;步骤4、将待跟踪视频序列的预处理结果输入到残差回归网络模型中,得到跟踪结果。本发明提高了速度,并允许实时跟踪对象。并与残差网络相结合,有效解决梯度弥散和网络精度问题,同时对于精度下降的问题有效的进行了遏制,降低了深度网络的训练难度,极大的提高了单目标跟踪的精度,为之后的单目标跟踪领域提供了一个新的解决问题的方向和思路。
-
公开(公告)号:CN110377710A
公开(公告)日:2019-10-25
申请号:CN201910520138.7
申请日:2019-06-17
Applicant: 杭州电子科技大学
IPC: G06F16/332 , G06K9/62
Abstract: 本发明公开了一种基于多模态融合的视觉问答融合增强方法。本发明步骤如下:1、利用GRU结构构建时序模型,获得问题的特征表示学习、利用从Faster R-CNN抽取的基于自底向上的注意力模型的输出作为图像的特征表示;2、基于注意力模型Transformer进行多模态推理,引入注意力模型对图片-问题-答案这个三元组进行多模态融合,建立推理关系;3、针对不同的隐含关系有不同的推理过程和结果输出,再根据这些结果输出来进行标签分布回归学习,来确定答案。本发明基于特定的图片和问题得到答案直接应用于服务于盲人的应用中,能够帮助盲人或者视觉障碍者更好地感知周围环境,也应用于图片检索系统,提高图片检索的准确性和多样性。
-
公开(公告)号:CN110276378A
公开(公告)日:2019-09-24
申请号:CN201910417419.X
申请日:2019-05-20
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于无人驾驶技术来对实例分割进行改进的方法。本发明提出在基于MASK R-CNN的Faster R-CNN基础上对目标进行检测以及分类,之后通过FCN特征粗提取以及CRF优化输出从而实现实例分割。具体实现步骤如下:步骤1、使用偏监督的方法对目标进行分类;步骤2、在语义分割卷积过程中采用深度可分离卷积,获取特征;步骤3、对卷积层得到的特征进行特征融合优化,在低层引入语义信息,在高层引入空间信息。本发明使用较低的成本便建立了较好的目标检测及分类结果。本发明采用深度可分离卷积,提高分割结果的精度以及计算机的效率,减少时间的损耗。
-
公开(公告)号:CN110276260A
公开(公告)日:2019-09-24
申请号:CN201910429812.0
申请日:2019-05-22
Applicant: 杭州电子科技大学 , 北京京东尚科信息技术有限公司
Abstract: 本发明公开了一种基于深度摄像头的商品检测方法,本发明包括以下步骤:1)利用深度摄像头获取摆放在结算台上的商品的深度信息及商品的深度图像。2)将深度信息转为灰度图像,从而使得灰度信息可视化;3)对去除背景噪声后的灰度图像进行图像增强;4)图像分割,设置合适的阈值将灰度图像转为二值图像,背景为黑色,感兴趣的商品区域为白色。5)边缘检测,对感兴趣的商品区域进行轮廓检测,找到商品的边缘轮廓,根据轮廓生成所需的包围盒信息。本发明无需提前采集大量数据训练检测模型,通过利用深度信息,基于传统图像处理方法即可获得商品的检测结果,节约成本,提高效率。
-
公开(公告)号:CN110236483A
公开(公告)日:2019-09-17
申请号:CN201910520291.X
申请日:2019-06-17
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于深度残差网络的糖尿病性视网膜病变检测的方法。本发明步骤如下:步骤1:数据集的筛选;步骤2:眼底图像的预处理,步骤3:数据集扩充,将部分样本较少的类中的图像做图像扩充处理,具体操作包括将图像镜像和旋转;步骤4:数据集标签的制作;步骤5:训练集和测试集的构建;步骤6:卷积神经网络的搭建;步骤7:网络训练;步骤8:网络测试。本发明能够获得更高的检测病变的准确性,同时进行检测的时间也可以大大缩短。
-
-
-
-
-
-
-
-
-