-
公开(公告)号:CN117095027A
公开(公告)日:2023-11-21
申请号:CN202311092333.7
申请日:2023-08-28
Applicant: 电子科技大学长三角研究院(湖州)
Abstract: 本发明公开了一种用于鲁棒视觉跟踪的互惠层间‑时间判别目标模型,属于目标跟踪技术领域,用于解决传统孪生跟踪算法很少考虑模板和搜索区域的信息交互,导致类目标干扰的累积误差影响跟踪结果的问题。本发明首先构建了一个层间目标感知增强模型,通过在特征提取过程中建立模板与搜索区域的逐像素相关性,实现层间特征信息交互,减轻了因目标对搜索区域不可见导致的累积误差,增强了对目标的感知;同时,为减弱干扰的影响,设计了一种时间干扰评估策略,利用帧间候选传播模块建立相邻帧多个候选位置之间的相似关系,再根据确定的相似得分消除相似干扰,获得更可靠的目标位置,实现鲁棒跟踪。
-
公开(公告)号:CN116721127A
公开(公告)日:2023-09-08
申请号:CN202310530851.6
申请日:2023-05-12
Applicant: 电子科技大学长三角研究院(湖州)
IPC: G06T7/246 , G06T5/00 , G06V10/40 , G06V10/764 , G06V10/766 , G06V20/40 , G06N3/094
Abstract: 本发明公开了一种建立噪声环境下对目标精确跟踪网络的方法,包括以下步骤:设置对抗性噪声训练的训练次数,噪声发生器产生噪声的种类和大小,跟踪器损失函数的平衡系数;将一对图片对送入噪声发生器,噪声发生器根据设置的相关参数对图片对加入噪声,处理后的图片对送入骨干网络进行特征提取;将特征提取后得到的响应图进行分类和回归,从而得到当前帧的跟踪结果,而后迭代运行这一流程至遍历测试数据集的全部视频序列的全部视频帧;将每一帧的跟踪结果记录保存,并定量分析跟踪精确度和跟踪成功率。本发明在最大化BCE loss值的条件下,通过训练使最后的跟踪器损失值最小,从而让跟踪器能够在保证对干净视频跟踪效果的同时应对各种噪声环境下的跟踪。
-
公开(公告)号:CN115912088A
公开(公告)日:2023-04-04
申请号:CN202211540048.2
申请日:2022-12-03
Applicant: 电子科技大学长三角研究院(湖州)
Abstract: 本发明涉及变电站设备技术领域,公开了一种变电站设备箱体的防尘装置,包括箱体本体,所述箱体本体的前侧开设有散热口,所述散热口内腔的上部套接有过滤网,所述散热口内腔的下部设有除尘散热组件,所述除尘散热组件的下部分别设有分层组件和清理组件。通过散热口的内腔里设有除尘散热组件,将第三箱体和第二箱体内均注入清水,清水经过进水管进入到第一箱体内,增大第一箱体内的压强,第一箱体内的气体利用气管进入到第二箱体内,增大第二箱体内的气压,从而将第二箱体内的清水经过出水管和排水管喷出,便于对经过过滤网内的空气中的灰尘进行吸附,即达到了除尘的效果,又可以对箱体本体内部件使用时所产生的热量进行吸附。
-
公开(公告)号:CN117496403A
公开(公告)日:2024-02-02
申请号:CN202311458880.2
申请日:2023-11-03
Applicant: 电子科技大学长三角研究院(湖州)
IPC: G06V20/40 , G06V20/70 , G06V10/22 , G06V10/25 , G06V10/26 , G06V10/762 , G06T7/143 , G06T7/194 , G06T7/215 , G06N5/04
Abstract: 本发明公开了基于时空记忆推理的视频目标分割方法,包括以下步骤:S1:时空记忆的分隔:将视频图像进行预处理,对视频的帧数进行逐帧分隔,并进行逐帧保存;S2:针对图像进行隔离:将标记好的逐帧图像进行隔离,并对隔离点进行二次标记;S3:背景移除或运动目标提取:通常假定摄像机静止或运动缓慢,然后自动分割出运动的前景目标;S4:视频语义分割:是图像语义分割的拓展。本发明可以基于时空记忆推理来对视频目标进行分割,且分割的更准确,图像切割后,切换的效果更好,利于视频目标的分割,并提升视频目标的条理性,并易于发现错误和漏洞,解决了现有技术中不能基于时空记忆推理对视频目标进行分割,且不利于整理和规划的问题。
-
公开(公告)号:CN117522927A
公开(公告)日:2024-02-06
申请号:CN202311461840.3
申请日:2023-11-03
Applicant: 电子科技大学长三角研究院(湖州)
Abstract: 本发明公开了基于仿生视觉常识目标跟踪方法,包括以下步骤:S1:色调的适应,通过对周边环境进行感应,并对应调节适应的传感器,对周边环境进行适应;S2:视觉的切换:通过对周边视觉的感应后,将数据反馈给控制中心,控制中心对视觉模式进行切换;本发明通过先对周边环境进行感应,并对应周边环境反馈出相应的模式,利于对目标进行追踪和锁定,且通过对目标的性质进行区分,方便对不同的目标进行精确分析,易于区分、记录和统计,而数据的整合是对众多目标物中的相似数据进行归纳,并进行比较,数据真实且多样,便于应用更多领域,解决了现有技术中,无法先对周边环境进行感应,且未对目标物进行区分,未对记录的数据进行整合和对比的问题。
-
公开(公告)号:CN117474950A
公开(公告)日:2024-01-30
申请号:CN202311454366.1
申请日:2023-11-03
Applicant: 电子科技大学长三角研究院(湖州)
IPC: G06T7/246
Abstract: 本发明公开了基于视觉语义跨模态目标跟踪方法,首先通过视觉模块对图像序列中的运动目标进行检测、提取、识别和跟踪,获得运动目标的运动参数,如位置、速度、加速度和运动轨迹;根据所跟踪的视频序列给定初始帧的目标状态,预测后续帧中该目标状态。本发明提出的计算机视觉技术可以较好应用于目标跟踪领域,在计算机视觉技术的基础上进行有效改进,通过特定的算法综合对图像进行预先处理,之后分别对目标识别和目标跟踪。借助一整套算法方案,保证了目标跟踪的准确性与便利性,通过固定机器和运动机器的协同配合工作,提高了整个跟踪系统对移动目标的识别与跟踪的实时性、鲁棒性,实现了系统中识别待测物体运动的一致性。
-
-
-
-
-