-
公开(公告)号:CN118450124B
公开(公告)日:2025-02-11
申请号:CN202410585773.4
申请日:2024-05-13
Applicant: 杭州电子科技大学
IPC: H04N19/124 , H04N19/31 , H04N19/33 , H04N19/167 , H04N21/6373 , H04N21/2187 , G06V10/25 , G06V10/28 , G06V10/40
Abstract: 本发明公开了一种支持群智感知的端边云紧凑视频编码方法及系统,在云边端系统中,对单摄像头和跨摄像头语义目标图片进行优选,基于目标跟踪和图片优先,选取包含语义信息最大的语义图片框,对语义目标对象在其时域轨迹上的图片框序列进行特征提取,并将得到的紧凑特征用于语义目标对象的重构,实现视频群智语义目标紧凑编码,采集用于反馈控制的控制参量,聚焦感兴趣或语义感知相对重要的区域,用于指导多个摄像头之间协同码率分配及量化控制优化,实现视频群智多摄像头端边云协同优化编码。在针对海量摄像头视频数据进行以图搜图业务中,本发明对海量摄像头视频数据进行高效编码,支持端边云高效存储传输和分析。
-
公开(公告)号:CN119337161A
公开(公告)日:2025-01-21
申请号:CN202411286382.9
申请日:2024-09-13
Applicant: 杭州电子科技大学
IPC: G06F18/23213 , G06F18/22 , G06F18/25 , G06N3/0455 , G06N3/0895 , G06N3/048 , G06N3/084 , G06F17/16 , G06F17/18
Abstract: 本发明公开了一种基于超图自编码器的多模态聚类方法。首先获取模态数据集合,基于模态数据集合形成超图,并得到邻接矩阵;然后通过自编码器网络得到每个模态数据集合的编码器输出和解码器输出;再者,融合每个模态数据对应的潜在表示为多模态数据潜在表示,得到相应的相似度矩阵;综上更新自编码器网络的网络参数和多模态潜在表示直到损失函数收敛,最后根据更新的多模态潜在表示将多模态数据分为k个类别。本发明通过数据的结构先验来学习样本间的潜在相似性,有效的结构先验可以减轻样本特征的偏差。我们利用预训练模型的特征表示能力和超图的卓越建模能力,将特征先验和结构先验集成到模型中。这提高了自监督学习算法的质量。
-
公开(公告)号:CN119313696A
公开(公告)日:2025-01-14
申请号:CN202411373764.5
申请日:2024-09-29
Applicant: 杭州电子科技大学
IPC: G06T7/136 , G06T7/194 , G06N3/126 , G06V10/44 , G06N3/096 , G06T7/00 , G06V10/774 , G06V10/776 , G06N3/006
Abstract: 本发明公开了一种基于君主策略改进遗传算法的多阈值图像分割方法。本发明方法基于遗传算法的进化原理,通过模拟自然选择和遗传学中的基因交叉与变异过程,确保在图像分割的多阈值选择问题中,能够有效探索解空间并收敛到最优解。利用生物学原理,保证了算法在解决复杂图像分割任务中的高效性与准确性。本发明方法优化了多阈值选择,能够在不同灰度级图像之间实现精确分割,尤其适用于具有多个组织类型或复杂结构的图像,可以有效识别复杂边界和重叠结构,通过自动调整分割参数提高识别准确性。
-
公开(公告)号:CN119107381A
公开(公告)日:2024-12-10
申请号:CN202411264579.2
申请日:2024-09-10
Applicant: 杭州电子科技大学
IPC: G06T11/00 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/084 , G06N3/094
Abstract: 本发明公开了一种基于注意力生成对抗网络的绘画图像和谐方法,首先建立网络训练需要的图像数据集;构建基于注意力生成对抗网络的绘画图像和谐模型,使用包括风格转换器的生成器将合成图像和实例分割蒙版作为输入输出和谐绘画图像;其次,提出一个像素级特征鉴别器来引导生成器产生更加真实协调的绘画图像;采用训练数据对模型进行训练;最后经过训练的模型接收需要进行图像和谐的图片,完成和谐处理后将图片输出。本发明通过自适应地计算模式可重复性来转移局部和全局纹理解决了现有方法中注意力模块反复滥用风格图像中的特定局部补丁,导致不和谐和明显重复伪像的现象,能够生成用不同背景风格模式清晰地表达艺术风格的和谐图像。
-
公开(公告)号:CN119048756A
公开(公告)日:2024-11-29
申请号:CN202411176201.7
申请日:2024-08-26
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于双流图神经网络的矢量化粗糙平面图分割方法,首先基于已知的粗糙平面图,同时考虑基于墙体结构和区域布局之间的空间关系的分割,构建两个矢量平面图即原始图和对偶图;然后以原始图和对偶图的顶点和边属性作为输入特征,计算得到双流图的顶点和边的嵌入特征,将其馈送到双流图神经网络中,以学习高级语义特征;最后利用双流图神经网络实现边界线分类和多边形区域分类。本发明提出了一个直接处理矢量图形的双流图神经网络,并将问题转化为房间边界分类和分区区域分类的双重任务。同时设计了一种新型调制GAT层,以实现两流之间的有效交互,从而使得它们的相互增强。本发明提供的方法具有卓越的性能,可用于产生更规则和完整的平面图分割。
-
公开(公告)号:CN118736106A
公开(公告)日:2024-10-01
申请号:CN202410576457.0
申请日:2024-05-10
Applicant: 杭州电子科技大学
IPC: G06T17/00 , G06T7/70 , G06V10/74 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于迭代位姿优化的CT重建方法及装置。将输入图像数据输入三维层析重建网络,并输入默认位姿角度进行重建,得到重建的粗略结果;将粗略结果根据设定的采样精度使用平均投影的方法重新进行投影采样,得到一组重投影图像,以及对应的准确角度;将重投影图像与输入数据进行结构相似性比对,求出输入图像在这一轮迭代中修正后的角度;将输入图像和对应修正后的角度输入重建网络进行重建,并迭代上述操作直至重建结果收敛。本发明通过动态调整采样角度并修正位姿误差,有效地提高了CT重建图像的质量和准确性,同时具有更强的鲁棒性和灵活性,能够适应不同的重建需求和采样环境,为CT成像技术的进一步发展提供了有力支持。
-
公开(公告)号:CN118605526A
公开(公告)日:2024-09-06
申请号:CN202410763981.9
申请日:2024-06-14
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于鲁棒强化学习的电动汽车编队协同控制方法,该方法首先建立车辆i的三阶纵向动力学模型,并选择控制目标。其次根据控制目标,构建鲁棒强化学习算法框架中的奖励函数、状态变量和控制变量。然后基于状态变量、控制变量以及奖励函数,构建对抗性样本,使用强化学习算法PPO作为智能体车辆的控制器,完成车辆编队协同控制。最后通过采用渐进式课程学习方法,在训练阶段逐步增大跟随车辆数量,逐步提升多车环境下车队编队的纵向协同控制能力。本发明提高算法对复杂环境下的鲁棒性能,提升在多车协同控制中的控制效果。
-
公开(公告)号:CN118485904A
公开(公告)日:2024-08-13
申请号:CN202410503650.1
申请日:2024-04-25
Applicant: 杭州电子科技大学丽水研究院
IPC: G06V10/82 , A63F13/822 , G06V10/26 , G06V10/764 , G06N3/088 , G06N3/0464 , G06T7/70 , A63F13/85
Abstract: 本发明涉及机器视觉技术领域,更具体地说,本发明涉及一种基于CNN图像处理的三消游戏辅助系统及方法,方法包括:一种基于CNN图像处理的三消游戏辅助方法,包括以下步骤:步骤1:对游戏界面的图像进行截取,获得棋盘的图像;步骤2:采用Mask‑RCNN方法对获得的图像进行无监督学习,获得预训练模型;步骤3:利用预训练模型对棋盘内的棋子进行分割,得到棋子的分类和位置;步骤4:根据图像处理结果模拟棋盘;步骤5:基于三消游戏的逻辑,设计三消游戏算法R,确定最优操作;本发明提出一种新颖的三消游戏算法,能够辅助用户得出最佳操作。
-
公开(公告)号:CN118196388A
公开(公告)日:2024-06-14
申请号:CN202410359770.9
申请日:2024-03-27
Applicant: 杭州电子科技大学丽水研究院
IPC: G06V10/25 , G06V10/44 , G06V10/52 , G06V10/80 , G06V10/82 , G06V20/10 , G06N3/0455 , G06N3/0495 , G06N3/0464 , G06N3/084 , G06N3/0985
Abstract: 本发明公开了一种基于卷积的轻量级遥感图像显著目标检测方法,通过使用经过轻量化修改后的卷积神经网络,降低参数和计算复杂度,提高网络的推理速度;通过使用增强模块分别在空间和通道维度上对编码器特征进行增强,使其包含更准确信息;通过解码器模块逐步融合增强后特征,恢复特征图尺度,得到最终预测图。本发明模型拥有更小的参数量和计算复杂度,降低了对计算资源的需求,加快了推理速度,可以满足在边缘设备上进行实时运行的需求,生成的遥感图像显著性预测图更加准确。
-
公开(公告)号:CN117975309A
公开(公告)日:2024-05-03
申请号:CN202410228082.9
申请日:2024-02-29
Applicant: 杭州电子科技大学丽水研究院
IPC: G06V20/17 , G06V20/13 , G06V10/80 , G06V10/764
Abstract: 本发明公开了一种基于特征动态偏移的图像语义信息挖掘方法。首先获取网络训练需要的图像数据集;然后构建基于权重自适应的对角线特征偏移融合策略的交叉视角地理定位网络模型;网络模型包含无人机视角分支和卫星图视角分支,两个分支采用共享权重的学习方式;每个分支都由三个部分组成:特征提取部分、特征划分部分和分类监督部分;经过训练的神经网络模型接收需要定位的无人机视角图像,为其匹配对应的卫星图像。本发明采用权重自适应的对角线特征偏移融合策略,能够根据图像中的目标区域自适应选择划分坐标更合理的环形分区策略,从而提高了特征区域的覆盖率和表达能力,避免了因目标区域不在视觉中心位置而导致的特征提取不足问题。
-
-
-
-
-
-
-
-
-