-
公开(公告)号:CN102035888B
公开(公告)日:2012-10-31
申请号:CN201010589063.7
申请日:2010-12-15
Applicant: 武汉大学
IPC: H04L29/08
Abstract: 本发明提出了一种基于调度期限和带宽感知的数据调度方法,包括步骤:1、选择目标数据块:源节点计算新数据块的调度期限初始值后将其发给调度节点;调度节点将接收的数据块存入缓存区后比较缓存区中未超过播放期限的数据块的相对价值并选最大的数据块为目标数据块;调度节点计算并修改目标数据块的调度期限值。2、选择目标节点:调度节点计算邻居节点中不含目标数据块的节点的概率;调度节点选出概率大于设定值的任一个节点为目标节点;3、调度节点向目标节点发送目标数据块,接收邻居节点或源节点转发的数据块,循环执行至流分发会话结束。本发明使系统获得了较优的分发延迟性能、降低了数据丢包率、减轻了节点的分发冗余。
-
公开(公告)号:CN101751625A
公开(公告)日:2010-06-23
申请号:CN201010029040.0
申请日:2010-01-21
Applicant: 武汉大学
Abstract: 本发明涉及系统安全防范技术领域,尤其涉及一种单一防护能力的防护效能评估系统。本发明包括安防数据输入模块、数据库管理模块、效能评估处理模块、显示输出模块,其中所述效能评估处理模块包括防护能力等级设置子模块、防护能力等级出现概率评估子模块、单个防护等级的防护效能评估子模块、风险熵评估子模块;本发明能够科学地对安全防范系统进行科学客观的防护效能评估,并给出直观的视觉显示图,提供给安全防范系统管理人员,能及时发现、及时解决,真正成为公共安全体系的有力技术支撑,指导安全防范系统的实践。
-
公开(公告)号:CN101272481A
公开(公告)日:2008-09-24
申请号:CN200810047203.0
申请日:2008-04-02
Applicant: 武汉大学
IPC: H04N7/18
Abstract: 本发明涉及一种视频监控前端设备接入方法,其特征在于:监控系统平台的设备接入模块由主模块和设备插件两部分组成,主模块对平台内部提供统一的服务接口,按照与主模块的约定接口规范开发的设备插件集成了监控系统内各类设备的SDK,主模块对这些设备插件进行管理和控制,并将平台用户的服务请求转发给相应的设备插件,由设备插件完成服务请求的处理和响应。此外,设备插件可以动态加载和卸载,从而完成对设备服务的动态地启用和停用控制。本发明的优点是实现简单,快速,提高了系统的可扩展性、可裁剪性、可测试性、可维护性、适用性、易用性。这种技术方案对于整合现有的大量的异构视频监控资源、建设大型公共的视频监控平台具有重要的意义。
-
公开(公告)号:CN1848950A
公开(公告)日:2006-10-18
申请号:CN200610018397.2
申请日:2006-02-22
Applicant: 武汉大学
Abstract: 本发明公开了一种建立视频监控前端设备控件接纳架构的方法,其特征是:设置流媒体接入网关,定义视频监控前端设备控件的控件接口标准,定义流媒体接入网关的控件接纳机制,视频监控前端设备的控件按控件接口标准编写后存储在视频监控前端设备中,在流媒体接入网关中存贮控件接纳机制中的上载控件程序,上载控件到流媒体接入网关后进行控件安全验证、注册和存储。本发明的优点是:实现简单,成本低廉,对于整合现有视频监控资源、建设大型公共视频监控网络具有重要作用。
-
公开(公告)号:CN114463237B
公开(公告)日:2024-04-19
申请号:CN202210114817.6
申请日:2022-01-30
Applicant: 武汉大学
IPC: G06T5/50 , G06T5/60 , G06T7/207 , G06N3/0464 , G06N3/08
Abstract: 本发明提出一种基于全局运动补偿和帧间时域关联性的实时视频去雨方法,进行基于全局运动补偿的视频帧间运动信息对齐,包括采用基于全局上下文模块GCM进行改进来完成运动估计和运动补偿,基于空洞卷积和下采样法的混合多尺度特征提取,然后基于混合多尺度时域互补优化,基于卷积神经网络的多帧特征融合及目标帧重建,通过最小化输出图片和对应的背景图片的像素差的平方和损失函数来优化神经网络,并利用优化后网络输出无雨图片。其中,全局运动补偿通过空间金字塔池化来减少全局运动补偿的计算点,从而减少计算量。基于混合多尺度时域相关性针对混合尺度的特征信息的时域互补性,以此来提高各个尺度特征信息,并最终提高视频去雨的效果。
-
公开(公告)号:CN114120188B
公开(公告)日:2024-04-05
申请号:CN202111373622.5
申请日:2021-11-19
Applicant: 武汉大学
IPC: G06V20/40 , G06V40/10 , G06V10/764
Abstract: 本发明公开了一种基于联合全局和局部特征的多行人跟踪方法,包括:首先对原始检测框进行融合,并对融合后的检测框进行关键点检测,根据关键点的置信度进行过滤来确定最终保留的关键点坐标;其次根据保留后的关键点坐标来生成新的检测框;接着对新的检测框进行特征提取,分别提取行人检测框的全局和局部特征,并设计一种基于联合全局和局部特征的度量方法来计算轨迹和检测框之间的相似度;最后执行跟踪管理策略,对轨迹进行更新和终止等相关操作得到最终的运动轨迹。本方法解决了拥挤场景中因为遮挡导致行人身份特征表达不准等问题,有效改善原始检测结果质量和提高行人身份特征表达能力,有效地改善了数据关联精度,提升了跟踪的准确度。
-
公开(公告)号:CN113205043B
公开(公告)日:2022-06-07
申请号:CN202110480110.2
申请日:2021-04-30
Applicant: 武汉大学
IPC: G06V40/10 , G06V20/40 , G06V10/774 , G06K9/62 , G06N20/00
Abstract: 本发明提供了一种基于强化学习的视频序列二维姿态估计方法,首先构建强化学习智能体的整体状态,然后输出动作,从当前视频序列中选择一个标注帧和一个未标注帧,两帧通过姿态估计器得到姿态,并被一起送入动作转换器完成动作转换并更新姿态估计器和动作转换器,最后根据姿态估计器的提升算出智能体的回报,并更新优化智能体。本发明利用强化学习和主动学习的思想,通过充分挖掘视频中的时序信息选出最有信息量的视频帧对,从而可以很好地抵御人体自遮挡,运动模糊等问题,可提高视频姿态估计方法的准确性和鲁棒性。本发明不同于常见的监督学习方案,仅使用少量的视频标注帧来完成姿态估计器的学习,较为明显地降低了人工标注量,从而实用性更高。
-
公开(公告)号:CN111260591B
公开(公告)日:2022-04-26
申请号:CN202010171783.5
申请日:2020-03-12
Applicant: 武汉大学
IPC: G06T5/00
Abstract: 本发明公开了一种基于注意力机制的图像自适应去噪方法,包括构建图像去噪及基于注意力机制的卷积神经网络,该网络主要由两部分组成,分别完成噪声图像提取及噪声图像权重分析。使用自然图像作为网络的输入,其中,噪声图像提取部分完成噪声图像的提取,噪声图像权重分析则是一个attention结构,学习到噪声分布的权重,得到噪声的权重图,最后两部分结合,噪声图像,再结合输入的噪声图像,得到去噪后的图像。基于注意力机制来深度图像卷积神经网络,自适应地提升网络的学习效率。本方法可以对含噪声的图像进行去噪工作,并取得良好的视觉效果。
-
公开(公告)号:CN112288775B
公开(公告)日:2022-04-15
申请号:CN202011145648.X
申请日:2020-10-23
Applicant: 武汉大学
IPC: G06T7/246
Abstract: 本发明公开了一种基于长短期预测模型的多目标遮挡跟踪方法,包括:首先设计基于运动的预测模型和基于外观的预测模型来预测丢失目标位置;其次设计一种自适应加权融合方法来融合这两个预测结果得到短期预测结果;然后通过样条插值法进行预测丢失目标的位置并将其结果视为长期预测结果;最后设计一种自适应加权融合方法来融合长期和短期预测结果。本发明提出的方法解决了多目标跟踪中单一处理某种遮挡时间的问题,可以有效处理不同遮挡时间长度和处理不同类型的遮挡,有效地恢复了目标在遮挡帧期间的位置,提升了跟踪的准确度。在对实际监控数据集的定量和定性测试中,都佐证了本发明所提方法的有效性。
-
公开(公告)号:CN113205043A
公开(公告)日:2021-08-03
申请号:CN202110480110.2
申请日:2021-04-30
Applicant: 武汉大学
Abstract: 本发明提供了一种基于强化学习的视频序列二维姿态估计方法,首先构建强化学习智能体的整体状态,然后输出动作,从当前视频序列中选择一个标注帧和一个未标注帧,两帧通过姿态估计器得到姿态,并被一起送入动作转换器完成动作转换并更新姿态估计器和动作转换器,最后根据姿态估计器的提升算出智能体的回报,并更新优化智能体。本发明利用强化学习和主动学习的思想,通过充分挖掘视频中的时序信息选出最有信息量的视频帧对,从而可以很好地抵御人体自遮挡,运动模糊等问题,可提高视频姿态估计方法的准确性和鲁棒性。本发明不同于常见的监督学习方案,仅使用少量的视频标注帧来完成姿态估计器的学习,较为明显地降低了人工标注量,从而实用性更高。
-
-
-
-
-
-
-
-
-