-
公开(公告)号:CN114565132B
公开(公告)日:2024-08-09
申请号:CN202210061083.X
申请日:2022-01-19
申请人: 南京航空航天大学
IPC分类号: G06F18/27 , G06N3/0464 , G06N3/045
摘要: 本发明公开了一种基于终点预测的行人轨迹预测方法,搭建终点预测轨迹回归预测模型,用轨迹终点预测结果辅助轨迹预测,并对其进行训练,最终获得预测精度较高的行人轨迹模型。其中,终点预测器结构为RseNet网络,通过终点预测部分的损失函数使模型尽可能快的达到较好的性能。模型在ETH和UCY数据集进行训练,选用ADE和FDE作为评估指标,结果表示该模型在降低平均位移误差和最终位移误差方面表现较好。
-
公开(公告)号:CN115018134B
公开(公告)日:2024-08-09
申请号:CN202210550870.0
申请日:2022-05-18
申请人: 南京航空航天大学
IPC分类号: G06Q10/04 , G06N3/0442 , G06N3/0464 , G06N3/0455 , G06N3/08 , G06F16/29
摘要: 本发明公开了一种基于三尺度时空信息的行人轨迹预测方法,主要任务为使用三个不同的尺度来解决行人轨迹预测问题:行人尺度,捕捉每个行人的历史轨迹信息;社会尺度,捕捉每个行人与周围行人时间空间上的互动信息;场景尺度,捕获行人所处场景布局的信息。搭建基于这三个尺度信息的网络模型并对其进行训练,最终达到较好的预测效果。其中,使用LSTM与图注意力网络替代RNN用于序列特征提取,使用卷积神经网络(CNN)结合LSTM对场景特征进行提取。此外,同一时刻的空间互动由图注意力网络(GAT)捕获。选择ETH和UCY数据集对模型进行训练和测试,并选择ADE和FDE作为模型性能评估指标,模型在两个数据集上均展现了较好的表现。
-
公开(公告)号:CN114862679A
公开(公告)日:2022-08-05
申请号:CN202210499131.3
申请日:2022-05-09
申请人: 南京航空航天大学
摘要: 本发明公开了一种基于残差生成对抗网络的单图超分辨率重建方法,首先建立生成网络,将低分辨率图像输入生成网络,得到生成的高分辨率图像;然后将生成的高分辨率图像和低分辨率图像对应的真实高分辨率图像共同输入判别网络模型,通过感知损失函数计算二者之间的差距;接着对生成网络以及判别网络同时进行训练,使得生成的高分辨率图像相对真实高分辨率图像的损失小于等于预设的阈值,得到训练之后的生成网络;最后将需要提高分辨率的低分辨率图像输入已经训练好的生成网络,得到重建后的高分辨率图像。本发明克服了现有技术中无法在感知上体现出输入和输出图像的差距的缺陷,提高了模型的精度和生成图像的质量。
-
公开(公告)号:CN114580718A
公开(公告)日:2022-06-03
申请号:CN202210162399.8
申请日:2022-02-22
申请人: 南京航空航天大学
摘要: 本发明公开了一种基于条件变分生成对抗网络的行人轨迹预测方法,首先对语义地图中的环境信息进行特征提取,接着从预测行人的历史轨迹序列中提取特征信息,基于场景物理环境对行人轨迹的约束和影响,融合条件变分自编码器CVAE和条件生成对抗网络CGAN,设计条件变分生成对抗网络模型Context‑CVGN,实现行人轨迹预测;通过在不同场景下进行训练测试,本发明提供的Context‑CVGN能够综合二者的优点实现整体性能上的最优。整体上本发明提出的算法可以在环境语义信息较为复杂的情况下生成高质量的满足环境条件约束的行人未来轨迹预测结果。
-
公开(公告)号:CN113674151A
公开(公告)日:2021-11-19
申请号:CN202110855397.2
申请日:2021-07-28
申请人: 南京航空航天大学
摘要: 本发明公开了一种基于深度神经网络的图像超分辨率重建方法,该方法首先将LR原始图像输入特征提取模块,LR原始图像在通过特征提取模块后提取出特征分量,然后将提取出的特征分量作为输入传给迭代模块。迭代模块由残差网络、重构网络、卷积网络、下采样网络组成。最后将每个迭代模块输出的中间预测HR图像加权求和重构出高分辨率图像。本发明采用新型残差块结构,有效提升收敛速度;并且采用迭代模块,反向传播时可以通过权重求和直接传递至早期的迭代模块中,保障了收敛性;同时采用几何自集成方法来强化数据集。结果表明,对于现有的网络模型,本发明不仅具有更好的图片真实性,而且还具有更好的PNSR指标与更快的模型收敛训练速度。
-
公开(公告)号:CN114638408B
公开(公告)日:2024-10-15
申请号:CN202210203214.3
申请日:2022-03-03
申请人: 南京航空航天大学
IPC分类号: G06Q10/04 , G06N3/0464 , G06N3/042 , G06N3/0455 , G06N3/08
摘要: 本发明公开了一种基于时空信息的行人轨迹预测方法,该方法从行人的多种特征中选取了场景信息、行人交互信息和行人历史轨迹信息这三个会对行人轨迹产生明显影响的因素作为神经网络的输入,从而得到精确度更高的行人轨迹预测方法,具体包括:将行人历史轨迹信息转换为顶点矩阵形式,并设计核函数从历史轨迹信息中提取行人交互信息并生成邻接矩阵,将输入的场景图片中的行人信息消除得到纯净的背景信息。结果表明该网络结构可以根据行人交互特点及行人运动状态正确生成预测轨迹,在多个数据集上取得了较好的预测结果。
-
公开(公告)号:CN115018705B
公开(公告)日:2024-06-14
申请号:CN202210593247.3
申请日:2022-05-27
申请人: 南京航空航天大学
IPC分类号: G06T3/4053 , G06N3/0475 , G06N3/094 , G06N3/0464
摘要: 本发明公开了一种基于增强型生成对抗网络的图像超分辨率算法。主要任务为搭建生成网络和判别网络,并对他们进行训练,最终期望获得可以有效提高图像分辨率的算法模型。其中,在生成网络中,提出采用一种并行卷积密集连接残差块代替原算法中的DenseBlock,增大图像感受野,并添加通道注意力与空间注意力机制在并行卷积密集连接残差块后,将并行密集连接残差块与注意力机制结合作为生成网络基本单元,增强算法对图像高频信息的学习能力,以提高超分辨率效果。
-
公开(公告)号:CN115564652B
公开(公告)日:2023-12-01
申请号:CN202211206792.9
申请日:2022-09-30
申请人: 南京航空航天大学
IPC分类号: G06T3/40 , G06N3/045 , G06N3/0464 , G06N3/0475 , G06N3/094
摘要: 本发明实施例公开了一种用于图像超分辨率重建方法,涉及数字图像增强技术领域,能够更大程度上的提取低分辨率图像的特征,进而还原高分辨率图像的纹理细节。本发明包括:建立生成对抗网络和特征提取器,所述生成对抗网络由至少两个神经网络组成包括:生成模型与判别模型;将待处理图像输入所述生成对抗网络的生成模型中,得到第一输出;将所述第一输出输入特征提取器,进行特征提取后,得到第二输出;将所述第一输出输入所述生成对抗网络的判别模型,得到第三输出;固定住特征提取器的参数,以对抗损失、感知损失以及生成图像与原图空间距离为优化目标,交替更新生成对抗网络的判别模型和生成模型,达到优化生成模型的目的。
-
公开(公告)号:CN115018134A
公开(公告)日:2022-09-06
申请号:CN202210550870.0
申请日:2022-05-18
申请人: 南京航空航天大学
摘要: 本发明公开了一种基于三尺度时空信息的行人轨迹预测方法,主要任务为使用三个不同的尺度来解决行人轨迹预测问题:行人尺度,捕捉每个行人的历史轨迹信息;社会尺度,捕捉每个行人与周围行人时间空间上的互动信息;场景尺度,捕获行人所处场景布局的信息。搭建基于这三个尺度信息的网络模型并对其进行训练,最终达到较好的预测效果。其中,使用LSTM与图注意力网络替代RNN用于序列特征提取,使用卷积神经网络(CNN)结合LSTM对场景特征进行提取。此外,同一时刻的空间互动由图注意力网络(GAT)捕获。选择ETH和UCY数据集对模型进行训练和测试,并选择ADE和FDE作为模型性能评估指标,模型在两个数据集上均展现了较好的表现。
-
公开(公告)号:CN114997067A
公开(公告)日:2022-09-02
申请号:CN202210767796.8
申请日:2022-06-30
申请人: 南京航空航天大学
IPC分类号: G06F30/27 , G06F16/9537 , G06F119/02
摘要: 本发明公开一种基于时空图与空域聚合Transformer网络的轨迹预测方法,解决了现有行人轨迹预测输出存在的交互特征提取不足的问题,使用时空图卷积神经网络以及时序特征变换网络操作完成对场景内行人轨迹特征的有效、准确提取,同时设计一个全新的空域聚合Transformer架构进行行人时序特征变换,完成对空域行人特征的高效聚合与利用,最终以概率分布的形式完成对行人预测轨迹的输出,达到对突发状况进行合理避让、保持组群行人运动一致性的目的,相关指标表明本架构在预测行人终点方面取得了突破,完成对行人轨迹分布更加准确、高效预测的目的,对于自动驾驶、智慧交通等领域的发展提供了重要帮助。
-
-
-
-
-
-
-
-
-