一种用于自动驾驶的实时目标检测、跟踪和运动预测方法

    公开(公告)号:CN119579862A

    公开(公告)日:2025-03-07

    申请号:CN202411615325.0

    申请日:2024-11-13

    Abstract: 本发明公开了一种用于自动驾驶的实时目标检测、跟踪和运动预测方法,属于自动驾驶技术领域。本发明主要包括以下步骤:1.接收三维点云数据和相应的二维图像数据;2.提取点云和图像的特征表示;3.采取逐级融合的方式,对图像特征和点云特征进行多模态信息融合,得到自适应融合的体素特征;4.根据自适应融合的体素特征,采用目标检测输出头、行为跟踪输出头和行为预测输出头分析得到车辆周围运动物体的检测结果、跟踪结果和预测结果。该方法利用单个卷积神经网络,结合三维点云数据和相应的二维图像信息,实现了高效准确的三维物体检测、跟踪和运动预测。通过统一的网络架构,将传统多阶段流程整合为一个模型,提高了系统的效率和性能。

    一种多尺度空间优化视频超分辨率方法

    公开(公告)号:CN119831848A

    公开(公告)日:2025-04-15

    申请号:CN202510149404.5

    申请日:2025-02-11

    Abstract: 本发明公开了一种多尺度空间优化视频超分辨率方法,属于图像超分辨率技术领域。所述方法包括:获取低分辨率的视频序列数据;通过网络提取视频序列的浅层特征图;通过自适应多尺度特征提取的方式提取视频序列的多尺度特征图;将多尺度特征图引入循环神经网络中,进行空间优化的对齐融合,即单帧超分结果的特征图,遍历所有视频帧,得到的单方向的超分结果;反向遍历所有视频帧,得到的反方向的超分结果;对双向超分结果进行整合,输出最终的超分结果,重建图像后得到高分辨率的视频序列数据。本发明简单而高效地从视频中提取出多尺度的细节,以此来增强视频超分辨率技术在恢复场景细节方面的性能,提高了高分辨率视频质量。

    基于多组学数据的肝癌DEB-TACE联合PD-1抑制剂疗效精准预测方法和装置

    公开(公告)号:CN116189761A

    公开(公告)日:2023-05-30

    申请号:CN202211577608.1

    申请日:2022-12-09

    Abstract: 基于多组学数据的肝癌DEB‑TACE联合PD‑1抑制剂疗效精准预测方法,其预测模型生成步骤如下:步骤1,获取肝癌患者术前的CT/MRI影像,进行图像预处理和肿瘤区域分割,提取影像组学常规特征及深度特征,并进行特征筛选;步骤2,获取基因组学数据,对影像组学特征和基因组学特征进行关联分析,将大量的影像组学特征聚类为少量的具有特定生物学基础的特征模块;步骤3,定量各蛋白质标的在样本中的表达水平,生成DIA数据,采用深度学习方法获取蛋白质组学特征,并进行特征筛选;步骤4,将影像组学特征、蛋白质组学特征和临床特征进行拼接形成特征矩阵,接入全连接神经网络中,构成深度前馈网络,对网络加以训练,输出肝癌患者的DEB‑TACE联合PD‑1抑制剂疗效预测结果。

    一种可控可调的扩频信号发生器电路

    公开(公告)号:CN118589849A

    公开(公告)日:2024-09-03

    申请号:CN202410676452.5

    申请日:2024-05-29

    Inventor: 胡晓慧 丁勇

    Abstract: 本发明涉及一种可控可调的扩频信号发生器电路,包括:压控振荡器电路和扩频信号产生电路;压控振荡器电路用于产生振荡脉冲信号;扩频信号产生电路用于提供扩频功能,对振荡脉冲信号进行调制,根据输入的高端阈值电压信号和低端阈值电压信号产生扩频控制电压信号;扩频深度通过扩频控制电压信号的峰值和谷值进行调节,扩频频率通过扩频控制电压信号的频率进行调节。本发明的有益效果是:本发明可控制扩频功能的开启或关闭,进而可以在降低EMI和输出电压稳定性之间做出权衡,提高电源的质量,以适应不同的应用场景;并通过改变扩频深度和扩频频率,可以更好地抑制谐振现象和电源振荡,从而提高转换器的稳定性和可靠性。

    基于残差网络和深度监督的自动驾驶三维目标检测方法

    公开(公告)号:CN117496142A

    公开(公告)日:2024-02-02

    申请号:CN202311382432.9

    申请日:2023-10-24

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于残差网络和深度监督的自动驾驶三维目标检测方法,属于自动驾驶技术领域。本发明主要包括以下步骤:1.基于点云数据的多层次稀疏体素特征的生成;2.BEV特征和三维区域候选框的生成;3.基于残差网络和深度监督进行由体素到点的特征优化;4.三维区域候选框的优化;5.目标检测结果的生成。基于本发明所提出的三维目标检测方法可以充分利用基于体素的RPN网络获得更高的候选框召回率,同时利用残差网络和深度监督,提取更加丰富的点信息以获得更加清晰的3D物体结构信息。深度监督的存在还可以更好的帮助网络进行优化,并且避免了网络训练过程中出现的梯度消失和梯度爆炸现象。

    一种基于多模态代理查询的运动预测方法

    公开(公告)号:CN117372992A

    公开(公告)日:2024-01-09

    申请号:CN202311291819.3

    申请日:2023-10-08

    Abstract: 本发明公开了一种基于多模态代理查询的运动预测方法,属于自动驾驶技术领域。包括:提取车辆周围不同模态下的环境特征执行目标检测,将检测结果编码为代理查询;将代理查询初始化为可学习查询向量,将不同模态下的环境特征作为环境信息相关的键向量和值向量,先后更新查询向量,生成环境信息相关的代理查询;提取高精地图的地图特征作为地图信息相关的键向量和值向量,更新环境信息相关的代理查询,生成地图信息相关的代理查询作为最终代理查询,用于完成自动驾驶车辆周围物体运动预测的任务。本发明从多模态数据中获取代理信息,结合多维场景特征和高精地图对周围物体进行运动预测,极大程度上避免了物体漏检问题,提高了预测精度。

    基于参考图颜色风格的灰度图像着色方法

    公开(公告)号:CN113724354B

    公开(公告)日:2023-10-13

    申请号:CN202111037335.7

    申请日:2021-09-06

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于参考图颜色风格的灰度图像着色方法,可以作为线稿及黑白图像上色这一类问题的解决方案。本发明具体实施包括如下步骤:1.拟定上色图像类别库,根据类别收集彩色图像数据集,并对其进行线稿提取或灰度化,以及提取其颜色直方图信息。2.将彩色图像、线稿或灰度图像、颜色直方图信息作为训练集,输入网络中训练,得到对应该类别的着色模型。3.将待上色图像重新输入网络,使用步骤2中得到的模型进行图像着色。4.评估着色结果。本发明所提出的基于参考图颜色风格的灰度图像着色方法可以解决各种类别的线稿、黑白图像着色问题,并且在实践中证明着色效果良好。

    基于结构-细节分离的双向循环神经网络超分辨率方法

    公开(公告)号:CN116452419A

    公开(公告)日:2023-07-18

    申请号:CN202310268873.X

    申请日:2023-03-20

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于结构‑细节分离的双向循环神经网络超分辨率方法,属于视频超分辨率技术领域。本发明主要包括以下步骤:1.提取低分辨率视频每帧图片的空间特征、结构特征和细节特征;2.计算每帧图片的前后向光流;3.将每帧图片的空间特征、结构/细节特征及前向光流输入网络,得到当前帧的前向结构/细节特征;4.将每帧图片的空间特征、结构/细节特征、后向光流及前向结构/细节特征输入网络,得到当前帧的后向结构/细节特征;5.将每帧图片的空间特征、结构/细节特征及前后向结构/细节特征进行计算得到重建结构/细节特征,将结果与空间特征进行计算得到高分辨结果。基于本发明提出的视频超分辨率方法可获得具有更多细节的高质量输出。

    基于可变形注意力的时空混合视频超分辨率方法

    公开(公告)号:CN115861068A

    公开(公告)日:2023-03-28

    申请号:CN202211598046.9

    申请日:2022-12-12

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于可变形注意力的时空混合视频超分辨率方法,属于视频超分辨率技术领域。本发明主要包括如下步骤:1.将进行预处理后的低分辨率视频数据流进行局部特征提取;2.接着进一步进行全局特征提取,经过串联的块丢弃注意力模块和可变形注意力模块,获取集聚全局信息的视频帧特征向量;3.再次进行局部特征提取并通过跳跃连接结合浅层特征信息;4.利用时间轨迹提取每一个空间块向量在时间维度上的特征信息并完成特征对齐;5.将获取的前后向超分结果融合并通过重建模块输出最终的高分辨率帧结果。基于本发明所提出的视频超分辨率重建方法可以获取较高质量的高分辨率视频,较之前的方法可以恢复处更加清晰的图像边缘并减少重影。

    一种基于多传感器数据融合的3D目标检测方法

    公开(公告)号:CN111209840B

    公开(公告)日:2022-02-18

    申请号:CN201911423880.2

    申请日:2019-12-31

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于多传感器数据融合的3D目标检测方法。首先,分别利用两个神经网络对点云和图像进行逐点和逐像素的特征提取,在点云的前景点上进行区域建议。然后利用传感器的标定矩阵实现两种异质传感器数据的逐点关联,实现最大程度上的关联。最后再利用一个神经网络对每一个区域的联合特征表示进行自适应的融合,并根据融合后的区域特征直接进行进一步得精细化调整。本发明使用神经网络自适应地融合两类传感器数据特征,克服了点云数据稀疏和图像数据没有深度信息等不足,来实现3D目标检测,基于本发明所提出方法的3D目标检测结果具有较高的精准度,优于现有的大多数3D目标检测方法,具有良好的准确性和鲁棒性。

Patent Agency Ranking