基于电子眼的车联网数据传输路径选择优化方法

    公开(公告)号:CN103116995A

    公开(公告)日:2013-05-22

    申请号:CN201310008178.6

    申请日:2013-01-09

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于电子眼的车联网数据传输路径选择优化方法,包括以下步骤:1)电子眼实时采集道路交通视频图像;2)视频处理模块根据道路交通视频图像提取交通参数;3)云计算平台根据交通参数,结合国家道路服务等级水平表,确定交通流状态信息;4)路边单元向车辆节点广播交通流状态信息,每个车辆节点接收到交通流状态信息后,自适应调整车辆节点发送beacon消息的广播周期;5)车辆源节点根据电子地图确定与车辆目的节点之间数据传输路径上可能经过的十字路口;6)车辆源节点根据数据传输路径上可能需要经过的十字路口之间的交通流状态信息,选择最优路径进行数据发送。与现有技术相比,本发明具有通信可靠、数据传输及时性高等优点。

    基于计算机视觉的客流量检测方法

    公开(公告)号:CN101321269B

    公开(公告)日:2011-09-14

    申请号:CN200710041616.3

    申请日:2007-06-05

    Applicant: 同济大学

    Abstract: 本发明公开了一种基于计算机视觉的客流统计方法及其系统,视频图像采集设备可利用现有的闭路电视系统(CCTV),可置于机场、地铁、火车站、汽车站、展览会等通道的出入口顶端,实时采集客流出入的视频图像,处理器采用计算机视觉算法对采集到的视频图像进行处理,得到图像的特征点,通过对一段时间内连续图像序列的处理得到特征点轨迹。通过对特征轨迹进行时间—空间上的约束,得到平滑连续的轨迹,对得到的特征轨迹进行聚类,得到客流的人数,从而获得实时、准确的客流信息。本发明结合计算机视觉装置和算法,在客流密集的情况下对客流量进行准确计数,获得的客流信息可以作为安全监控、运行管理和线路规划设计的依据。

    基于视频图像的密集客流密度自动检测方法及系统

    公开(公告)号:CN101431664A

    公开(公告)日:2009-05-13

    申请号:CN200710047838.6

    申请日:2007-11-06

    Applicant: 同济大学

    Abstract: 一种基于视频图像的密集客流密度自动检测方法,属于计算机视觉技术领域。本发明采用视频采集装置和处理算法。其中视频图像采集设备通过闭路电视系统(CCTV)采集监控视频图像,通常采用置于客流通道的出入口顶端的摄像机,实时采集客流出入的视频图像。处理器采用计算机视觉算法对采集到的视频图像进行处理,在人群密度较低时,采用计算量较小但较准确的像素数统计,并应用时间轴的信息进行背景生成;在人群密度较高时应用小波包分解来对人群图像进行多角度分析,然后提取小波包分解系数矩阵的计盒维数作为特征,送入分类器进行分类,得到人群密度等级,达到对密集客流密度实时检测的目的。

    基于激光传感器深度图像的人流检测方法

    公开(公告)号:CN101425128A

    公开(公告)日:2009-05-06

    申请号:CN200710047590.3

    申请日:2007-10-30

    Applicant: 同济大学

    Abstract: 本发明首先通过激光传感摄像机拍摄多帧在检测区域空置时的深度图像,得到检测区域地面的地形图,接着在实际人流检测环境下,得到检测区域各检测点的实际高度。将检测区域各点高度点阵图像分成多个图层,对每一个图层分别采用自迭代组织分析技术对点阵图像进行聚类,分割出每一个图层中的目标。从第一个图层开始,采用自上而下的方式对每一个图层中的目标进行累加或者合并,检测出每一帧深度图像中的行人目标。对多帧图像目标进行跟踪,最终达到对检测区域内行人流的密度、速度和流量等信息实时检测的目的。当外在检测环境发生改变时该方法依然能够对行人流进行有效检测,还具有计算简便、实时性好、同步实现人流的监控功能等优点。

    密集客流计数和行人步行速度自动检测方法及系统

    公开(公告)号:CN101196991A

    公开(公告)日:2008-06-11

    申请号:CN200710172336.6

    申请日:2007-12-14

    Applicant: 同济大学

    Abstract: 一种基于视频图像的密集客流计数和行人步行速度自动检测方法,属于计算机视觉技术领域。本发明采用视频采集装置和处理算法。其中视频图像采集设备通过闭路电视系统(CCTV)采集监控视频图像,通常采用置于客流通道的出入口顶端的摄像机,实时采集客流出入的视频图像。处理器采用计算机视觉算法对采集到的视频图像进行处理,采用Adaboost算法进行人脸识别,以Harr特征作为输入,以弱分类器加权组合构成强分类器,最后用强分类器组成“瀑布”层叠形式;然后进行触发计数。计算行人步行速度主要根据对行人脸部进行跟踪,跟踪区域为行人脸部进入检测区域开始,出检测区域为止。计算行人步行速度的要点为标定和跟踪。

    一种有利于交通监控的视频编解码传输方法及装置

    公开(公告)号:CN118400533A

    公开(公告)日:2024-07-26

    申请号:CN202410497710.3

    申请日:2024-04-24

    Applicant: 同济大学

    Abstract: 本发明涉及一种有利于交通监控的视频编解码传输方法及装置,该方法包括:步骤S1,对获取的实时交通监控视频帧进行预处理,并输入深度目标检测网络分离出视频帧的前景与背景;步骤S2,通过自适应背景更新算法实时更新背景模板,并压缩编码生成背景码流;同时利用超分辨率网络对实时视频帧的前景进行增强处理,然后输入深度视频编解码网络进行压缩编码生成前景码流;步骤S3,分别对实时前景码流和更新的背景码流进行打包处理,并发送至接收端;步骤S4,接收端对收到的码流进行解码,融合前景与背景并重组形成完整视频流,并进行视频增强。与现有技术相比,本发明具有提升视频质量、压缩背景冗余信息,以及节约传输资源和存储资源等优点。

    一种基于摄像头的车路协同实现方法及实现系统

    公开(公告)号:CN115440034B

    公开(公告)日:2023-09-01

    申请号:CN202211016027.0

    申请日:2022-08-24

    Applicant: 同济大学

    Abstract: 本发明提供一种基于摄像头的车路协同实现方法及实现系统,包括设于车辆上的智能网联车载子系统和设于路侧的智能网联路侧子系统,其中,车载摄像头和路侧摄像头通过GNSS授时进行时间同步,智能网联车载子系统和智能网联路侧子系统都将像素坐标转换成WGS84坐标,实现车载摄像头和路侧摄像头的空间对齐,智能网联路侧子系统将检测结果推送给车辆,自车基于自身RTK位置信息与路侧检测结果进行关联融合,自车周围障碍物将车载摄像头检测结果与路侧检测结果进行融合,本发明保证了车路协同系统在信息融合过程中空间上的对齐,不管是自车还是自车周围的障碍物目标都可以通过位置信息与路侧的感知结果进行融合,从而有效实现车路协同感知,推进车路协同落地。

    一种面向车路协同的元宇宙构建系统及方法

    公开(公告)号:CN115118744A

    公开(公告)日:2022-09-27

    申请号:CN202210532363.4

    申请日:2022-05-09

    Applicant: 同济大学

    Abstract: 本发明涉及一种面向车路协同的元宇宙构建系统及方法,用于为车路协同系统提供验证环境,该系统包括设于物理世界的数据采集系统,设于虚拟世界的世界建模系统、数据显示系统、电子地图引擎和时空数据库,以及既设于物理世界又设于虚拟世界的数据交互系统;所述物理世界和虚拟世界通过所述数据交互系统进行信息的实时交互,通过ID建立起关联;所述世界建模系统分别与数据显示系统、电子地图引擎和时空数据库连接。与现有技术相比,本发明建立了一个平行于物理世界的面向车路协同的元宇宙,实现了在虚拟世界中对车路协同系统的有效性验证。

    一种NB-IoT终端定位系统及方法

    公开(公告)号:CN111669703A

    公开(公告)日:2020-09-15

    申请号:CN202010540158.3

    申请日:2020-06-12

    Applicant: 同济大学

    Abstract: 本发明提供一种NB-IoT终端定位系统及方法,用于对NB-IoT终端进行定位,其特征在于,包括:至少一个NB-IoT终端,包括应用处理器以及调制解调器;NB-IoT网络,包括多个NB-IoT基站,每个NB-IoT基站的网络信号覆盖形成多个小区;以及云服务器,与NB-IoT网络有线连接,其中,云服务器包括基站信息存储单元、数据解压缩单元、时延估计单元、终端定位计算单元以及定位输出单元,该云服务器根据调制解调器采集的OFDM符号进行时延估计,同时获得不同小区与服务小区之间的时延估计差RSTD,进而利用时延估计差、基站位置信息以及基站同步时间差等计算出终端位置的经度/纬度以及置信度信息作为NB-IoT终端的终端位置信息,最终将该终端位置信息进行输出。

Patent Agency Ranking