-
公开(公告)号:CN115631810A
公开(公告)日:2023-01-20
申请号:CN202211274910.X
申请日:2022-10-18
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于流的图同构自回归分子生成方法。首先进行数据预处理;构建基于流的图同构自回归分子生成模;通过预处理后的数据对分子生成模型进行训练;最后通过训练好的分子生成模型完成分子生成。本发明针对分子生成问题,采取了基于流的自回归生成模型,通过多层感知机求出基分布和现实数据分布之间的可逆变换,从而在提高了模型的灵活性同时,因其迭代的采样过程,使得可以在节点和边的生成过程中引入价态检验,这大大提高了所生成分子的现实意义。采用了图神经网络表征能力达到上限的图同构神经网络GIN来进行分子图的表示学习,极大的提升了模型对于分子图结构的学习能力。
-
公开(公告)号:CN115565107A
公开(公告)日:2023-01-03
申请号:CN202211203700.1
申请日:2022-09-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于双流架构的视频显著性预测方法。首先提取视频帧和光流图中包含的时间和空间特征;通过注意力模块增强时间特征并将时间和空间特征融合;再使用时间解码器生成的掩膜图过滤时空特征;使用GRU模块获取视频帧之间的长期时空信息;最后使用空间解码器生成预测图。本发明通过使用一种新颖的双流架构更加有效地提取出光流图和视频帧中包含的时间和空间特征;通过使用注意力模块对不同尺度的时间特征进行增强处理,更加有效地融合了时间和空间特征;通过使用一种时间掩膜方法更加准确地定位出时空特征中显著对象的位置;通过使用GRU模块能够捕获到视频中更长的时空信息。
-
公开(公告)号:CN115511914A
公开(公告)日:2022-12-23
申请号:CN202211215389.2
申请日:2022-09-30
Applicant: 杭州电子科技大学
IPC: G06T7/246 , G06V10/762 , G06N3/04 , G06N3/08
Abstract: 本发明公开了基于YOLO算法和PID算法的鸟类摄影云台控制方法,首先准备包含各类鸟类的照片数据并进行标注,通过标注好的照片数据对YOLOv5网络模型进行训练,在现有摄影云台的主控芯片上加载训练好的网络模型;通过网络模型对图像进行检测有无鸟类。对比鸟类中心坐标和图像中心的坐标,若有偏差,则转动舵机,使得相机追踪鸟类,相机转动角度用PID算法来优化,并保存图像。本发明针对于特定的摄影环境和摄影对象,旨在帮助摄影师更好的追踪和捕捉鸟类,本发明在传统的云台控制算法上,融入了人工智能相关算法,在保证预测准确度的同时,也要充分考虑芯片性能以保证算法运行和算法推理运算速度。
-
公开(公告)号:CN115511747A
公开(公告)日:2022-12-23
申请号:CN202211203733.6
申请日:2022-09-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于像素域和频域信息损失的视频去压缩伪影方法。首先进行数据预处理,获取高质量及低质量的视频帧数据集,搭建视频增强网络模型;再训练低质量图像增强的网络模型;最后将低质量的视频帧输入模型得到高质量的视频帧。本发明通过在频域上进行计算梯度轮廓损失和像素域的密集残差连接配合,能使得低质量的视频帧输出菱角分明边缘清晰的视频帧。本发明方法同时在频域和像素域的联合操作大大提升了质量增强的效果。
-
公开(公告)号:CN115496186A
公开(公告)日:2022-12-20
申请号:CN202211201830.1
申请日:2022-09-29
Applicant: 杭州电子科技大学
IPC: G06N3/04 , G06N3/08 , G06Q40/02 , G06F16/901
Abstract: 本发明公开了一种基于图结构学习提升网络鲁棒性的优化方法,首先通过重构新的低秩且稀疏的邻接矩阵来学习到新的邻接矩阵S逼近中毒图的邻接矩阵,然后针对对抗性攻击连接节点并赋予明显的特征,通过保证图数据的特征平滑度来保护图数据不受攻击影响,获得训练图神经网络的总损失函数;最后进行GNN图神经网络的迭代学习得到最优的鲁棒性图神经网络。本发明有效的将对抗思想迁移到图数据来提升图神经网络的鲁棒性。本发明针对中毒图数据依旧保持良好的学习效率,在分类等各种任务上保持良好的效果。在各种对抗性攻击下都可以保持良好的整体鲁棒性,可以解决大部分的对抗性攻击。
-
公开(公告)号:CN115457600A
公开(公告)日:2022-12-09
申请号:CN202211277054.3
申请日:2022-10-18
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种多目标的行人重识别攻击方法。首先通过人体区域切割网络确定扰动图片可叠加的区域,再计算该区域内的平滑度,确定平滑度最大的点作为叠加区域的左上角;再初始化大尺寸攻击图,利用STN缩放为小尺寸攻击图,叠加到图片上;计算针对多目标攻击的多目标损失函数,利用梯度反向传播更新攻击图,得到多目标扰动图片;最后将得到的多目标扰动图片打印出来贴到衣服上,实现物理层面的攻击。相比单目标的攻击方法,本发明可以进行多目标攻击,攻击性能更强,攻击更多样;通过人体区域检测网络,以及平滑度最小方法,使得本方法攻击区域尽可能处于人体的衣物区域,使得物理攻击更容易开展。
-
公开(公告)号:CN115297316A
公开(公告)日:2022-11-04
申请号:CN202210963297.6
申请日:2022-08-11
Applicant: 杭州电子科技大学
Abstract: 本发明方法公开了语境特征融合的虚拟视点合成图像空洞填充方法。本发明方法首先以参考视图、参考深度图和相机信息为单位,检测出深度图的前景信息并进行前景扩散,然后根据3D变换和参考信息绘制出虚拟视点图像,最后在生成对抗网络中加入具有语境特征融合的注意力生成空洞区域的像素。本发明根据3D‑warpintg、空洞和前景之间的位置关系和注意力机制原理,改进了已有的注意力提取特征的方法,尤其是在视频序列中包含快速运动的物体在修复工作中起重要作用。本发明加强了同一空洞区域的连续特征块之间的联系,消除前景信息对背景区域修复的影响,可以直接应用在3D视频处理,3D视频/图像物体修复等领域。
-
公开(公告)号:CN115174918A
公开(公告)日:2022-10-11
申请号:CN202210756169.4
申请日:2022-06-30
Applicant: 杭州电子科技大学
IPC: H04N19/149 , H04N19/147 , H04N19/186 , H04N19/19 , H04N19/70 , H04N19/122
Abstract: 本发明属于视频编码领域,公开了一种基于统计建模的VVC快速码率估计方法,包括如下步骤:步骤1:语法元素编码结构分析;步骤2:构建大尺寸TU码率估计模型;步骤2.1:部分语法元素的码率预估;步骤2.2:分析最后一位非零系数位置和系数分布特征;步骤2.3:构建大尺寸TU最终码率模型;步骤3:构建小尺寸TU码率模型。本发明实现了高精准度的量化系数码率预估;对训练样本进行亮度和色度分组的基础上,对TU进行大尺寸和小尺寸分组,使得码率预估模型误差更小;本发明所提出的码率估计算法可以在保证编码性能的前提下,实现时间成本的有效降低。
-
公开(公告)号:CN114286093A
公开(公告)日:2022-04-05
申请号:CN202111599851.9
申请日:2021-12-24
Applicant: 杭州电子科技大学
IPC: H04N19/119 , H04N19/105 , H04N19/14 , H04N19/11 , H04N19/593 , H04N19/147 , H04N19/96 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于深度神经网络的快速视频编码方法。本发明包括基于深度神经网络的CU划分模块、基于邻域相关性的PU模式选择模块;CU块在帧内编码时会先经过PU模式选择计算率失真代价,此时先利用基于邻域相关性的PU模式选择模块进行优化,通过轻量级HCT模型的预测结果来减少RDO计算的候选模式数量;PU模式选择结束后,编码器会进行CU块深度判决,判断该CU块是否进行划分,此时由基于深度神经网络的CU划分模块进行优化,从HCT模型获得预测结果来判断是否提前终止划分。否则继续向下划分子CU块,并继续进行PU模式选择和CU块划分判决。本发明降低了CU递归划分的复杂度,简化了帧内预测模式的选择过程,有效地提高了HEVC编码的时间效率。
-
公开(公告)号:CN110418131B
公开(公告)日:2021-07-27
申请号:CN201910638480.7
申请日:2019-07-15
Applicant: 杭州电子科技大学
IPC: H04N19/105 , H04N19/124 , H04N19/13 , H04N19/184 , H04N19/61 , H04N19/70
Abstract: 本发明公开了一种码率预估方法及基于码率预估快速模式决策方法。所述的码率计算公式如下:Rori=Rhdr+Re其中Rhdr为头比特码率,Re为TU码率;所述TU码率计算包括:S1)通过加权量化系数总和SQC进行码率预估,表示为Rsqc;S2)确定基于CG级别的位置信息Zpos;S3)确定上下文模型反转参数Mturn;S4)确定是否使用TU级别最后一个非零系数位置信息Ztlp;S5)计算最终各TU码率:其中Rzpos=a1Zpos,Rturn=a2Mturn,Rtlp=a3Ztlp,将Rzpos、Rturn、Rtlp带入公式Re,计算得到的码率进行拟合得到系数a1、a2、a3。本发明快速精准的预估码率,从而可以保证在可接受性能损失的范围下,实现减少视频编码负担和节约编码时间的目的。
-
-
-
-
-
-
-
-
-