高速公路交通事件历史还原3D视频自动生成方法及装置

    公开(公告)号:CN118887803A

    公开(公告)日:2024-11-01

    申请号:CN202410925436.5

    申请日:2024-07-11

    摘要: 本发明公开了一种高速公路交通事件历史还原3D视频自动生成方法及装置,方法包括:获取高速公路道路静态信息,基于所述道路静态信息进行道路静态3D模型的构建;通过三维数据库和3D建模技术生成车辆3D图像;根据目标检测和跟踪的结果,获得车辆行驶轨迹,根据所述车辆行驶轨迹对汽车跟随模型、直走模型和转弯模型进行优化;基于车辆行为模式,结合目标检测模型检测得到的引起事故的道路因素,分析车辆事故原因及引起的道路拥堵情况,提取出事故原因,根据影响因素计算方式事故发生经过;将车辆3D图像与提前建模好的道路静态3D图像进行叠加,生成3D仿真视频。本发明可以真实还原交通事件现场,实现交通事件全局复现优化。

    一种基于U3D技术实现监控相机虚实联动方法

    公开(公告)号:CN118869966A

    公开(公告)日:2024-10-29

    申请号:CN202410906955.7

    申请日:2024-07-08

    摘要: 本发明提出了一种基于U3D技术实现监控相机虚实联动方法,所述方法包括:虚实联动绑定关联、虚实联动参数设置、虚实联动范围检测、虚实联动遮挡检测、虚实联动控制和虚实联动可视化;其应用通过HTTP协议接口获取监控相机数据,利用U3D技术中UGUI可视化相机台账建立监控相机列表,对列表中选项添加拖拽事件和拖拽台账选项,在Physics检测碰撞场景中虚拟相机模型进行台账信息绑定关联;对已绑定完成的注销掉当前列表选项拖拽事件以及虚拟相机模型添加已绑定关联标识状态;对绑定关联完成的虚拟相机结合实体相机情况进行关键参数设置,结合U3D技术Physics检测设置目标坐标点target,通过虚实联动范围检测和虚实联动遮挡检测过滤获取联动相机进行虚拟联动控制。

    视频全景拼接与三维融合装置

    公开(公告)号:CN116760963B

    公开(公告)日:2024-10-11

    申请号:CN202310699313.X

    申请日:2023-06-13

    摘要: 本发明涉及视频拼接融合领域,具体为视频全景拼接与三维融合方法及装置。其包括如下步骤:S1、使用多个摄像机拍摄不同角度的视频,得到多个视频流;S2、对多个视频流分别进行去噪和图像增强的图像处理过程,获得更清晰的图像;S3、将处理后的多个视频流进行全景拼接,获得全景视频;S4、利用三维建模软件构建三维场景模型;S5、将拼接后的全景视频与三维场景模型进行三维重建融合,获得三维重建融合后的三维全景视频。本发明能将拍摄的视频流与虚拟构建的三维场景模型结合来制作出真实性更高、结合度更好的三维全景视频。

    一种基于空间化视频辅助园区应急指挥的方法

    公开(公告)号:CN118400510B

    公开(公告)日:2024-09-20

    申请号:CN202410834440.0

    申请日:2024-06-26

    摘要: 本发明公开了一种基于空间化视频辅助园区应急指挥的方法,包括步骤:S1、构建园区GIS三维场景,获取园区监控设备的二维视频信息;S2、根据监控设备的空间信息和GIS三维场景数据,实现物体二维视频信息与物体GIS三维场景的空间化融合;S3、利用物体二维视频信息与物体GIS三维场景的融合,辅助GIS三维场景执行应急事件指挥。本发明通过物体二维视频信息与物体GIS三维场景的融合,将实时监控视频空间化,实现二维视频与GIS三维场景匹配融合,可以在园区发生应急事件时,方便指挥员事实直观掌握现场情况,定下指挥决心,确定指挥方案,提高园区应急处突能力,提高处置效率,提高园区的管理水平。

    视频图像地理拼接方法、装置、计算机设备及存储介质

    公开(公告)号:CN118195922B

    公开(公告)日:2024-09-20

    申请号:CN202410558811.7

    申请日:2024-05-08

    发明人: 胡金星 贾亚伟

    摘要: 本申请涉及一种视频图像地理拼接方法、装置、计算机设备以及存储介质。所述方法包括:获取多无人机采集的现实场景的实时直播图像以及多无人机的GNSS信息;使用视觉SLAM算法对实时直播图像进行输入帧跟踪,并结合视觉轨迹和GNSS信息对跟踪成功的输入帧进行位姿估计,生成具有地理参考的相机姿态;利用相机姿态和表面重建算法对输入帧进行稠密化处理,生成现实场景的深度图,并将深度图投影到密集三维点云中,构建现实场景的三维表面模型;利用相机姿态和三维表面模型对输入帧进行正射校正,将正射校正后的输入帧整合到全局拼接地图中,生成现实场景的全局图像。本申请实施例可以快速获取现实场景中的实时画面,为现实场景的快速紧急响应提供了有力支持。

    一种智能摄像机低功耗飞行方法及摄像机

    公开(公告)号:CN118509701A

    公开(公告)日:2024-08-16

    申请号:CN202410567997.2

    申请日:2024-05-09

    发明人: 金威 唐矗 蒲立

    摘要: 本申请属于摄像机领域,特别涉及一种智能摄像机低功耗飞行方法及摄像机,通过无差别扫描室内所有物体收集室内物体数据;将所述室内物体数据进行多模态识别并标注;将标注后的室内物体数据按照物体变动频次进行分类;降低室内变动频次较低的室内物体数据的更新权重;将处理后的室内物体数据通过算法再结合室内图片数据集训练出室内摄像机信息采集模型;摄像机飞行时按照所述采集模型动态更新室内空间地图信息,将数据采集和数据使用时间错开,在不同的时间去完成,在使用数据集的时候,直接从已经处理完毕的数据集检索匹配信息,不再需要实时通过各种传感器收集数据,实现做到1次收集N次使用的效果,从而实现节省电力。

    一种4D内容的生成方法、装置、设备及存储介质

    公开(公告)号:CN118450213A

    公开(公告)日:2024-08-06

    申请号:CN202410580251.5

    申请日:2024-05-11

    摘要: 本发明公开了一种4D内容的生成方法、装置、设备及存储介质。基于多个第一时空信息及原始动态神经辐射场生成多个视角的第一视频;将所述多个视角的第一视频和参考视频输入多视角扩散模型,输出多个视角的第二视频;所述多视角扩散模型为预先训练的用于生成多视角视频的神经网络模型;基于所述多个视角的第二视频和所述多个视角的第一视频确定第一损失函数;基于所述第一损失函数对所述原始动态神经辐射场进行训练,获得目标动态神经辐射场;基于所述目标动态辐射场和第二时空信息生成目标4D内容;其中,所述第一时空信息和所述第二时空信息均包括时间信息和空间信息。可以提高4D内容的质量并保证其时空一致性。

    基于增强现实的监管数据显示方法及显示系统

    公开(公告)号:CN115174662B

    公开(公告)日:2024-07-23

    申请号:CN202211002148.X

    申请日:2022-08-21

    摘要: 本发明公开了一种基于增强现实的监管数据显示方法及显示系统。监视服务器将模型特征数据发送至移动监管设备,移动监管设备在视频流中匹配作业设备的模型特征数据,再插入虚拟第一显示区和第二显示区。模型特征数据作为配准媒介,避免作业设备之间的虚拟图像配对不准。本发明将增强现实的数据处理工作交由远端的代理服务器完成,降低移动监管设备的运算压力。监视服务器根据GPS数据仅将部分模型特征数据发送至移动监管设备,可以通过模型特征数据的缺失确定作业设备的是否处于计划的目标区域。本发明的显示系统主要由移动监管设备、监视服务器、代理服务器以及作业设备组成。