一种基于多数据融合的航道交通信息预测方法及应用

    公开(公告)号:CN104091470A

    公开(公告)日:2014-10-08

    申请号:CN201410337925.5

    申请日:2014-07-15

    Applicant: 南京大学

    Abstract: 本发明公开了一种基于多数据融合的航道交通信息预测方法及应用。本发明将来源于不同类型离散监测点的船舶监测信息进行融合,在统一信息格式后结合卫星定位信息,确定当前活动的船舶,并生成活动船舶的当前航行轨迹,然后根据船舶的历史航行信息和当前航行轨迹,结合船舶信息,采用朴素贝叶斯分类算法预测船舶将要到达的下一个连通监测点的概率,得到航向概率集作为船舶航向预测结果,最后根据部分船舶的卫星定位信息对航向概率集中的概率数据进行修正,从而得到修正后的船舶航向预测结果。本发明依据船舶的航向预测结果,结合船舶信息和航道信息,采用定制化的方式,完成航道交通业务信息的估算和预测。

    一种基于软分配BoF的目标跟踪方法

    公开(公告)号:CN103902982A

    公开(公告)日:2014-07-02

    申请号:CN201410141636.8

    申请日:2014-04-09

    Applicant: 南京大学

    Abstract: 本发明公开了一种基于软分配BoF的目标跟踪方法。本发明通过将各个patch的每一种局部特征分配到对应codebook中的多个codeword,并计算其权重得到跟踪目标和候选目标的BoF表示。然后通过BoF表示的相似度比较,选择与跟踪目标最相似的候选目标。区别于现有目标跟踪方法,本发明采用了软分配策略,提高了BoF表示的健壮性和区分度,提升了跟踪方法的精确度,减少了跟踪失败的场景,从而获得更佳的跟踪结果;其次本发明在构建codebook时,不仅在跟踪目标范围区进行patch采样,还在跟踪目标背景区进行patch采样,使codebook兼具描述性和区分性;最后本发明采用了自适应大小的圆形patch,通过在候选目标之间共享patch的权重向量,有效地节约了计算资源。

    一种基于双路视觉Transformer的图像风格迁移方法

    公开(公告)号:CN119068100A

    公开(公告)日:2024-12-03

    申请号:CN202310646537.4

    申请日:2023-06-02

    Applicant: 南京大学

    Abstract: 一种基于双路视觉Transformer的图像风格迁移方法,对内容图像和风格图像分别配置一路视觉Transformer编码器,得到内容编码和风格编码;由Transformer风格参数提取器将风格编码表征为风格参数向量;再通过视觉Transformer图像解码器加权融合内容编码与风格编码,并基于风格参数向量预测目标风格的特征分布参数,得到风格化编码,最后解码输出生成风格化图像。本发明基于双路编码‑解码的视觉Transformer架构,既考虑了不同图像域间的编码差异,提升风格表征的准确性,又引入了风格分布度量,进一步提升风格表达能力,使图像渲染无论是色彩分布还是纹理质感均高度契合真实风格,同时能完整保留原始内容语义,避免因施加局部风格纹理而出现失真问题。

    一种基于模态感知特征学习的RGBT目标跟踪方法

    公开(公告)号:CN119068016A

    公开(公告)日:2024-12-03

    申请号:CN202310625057.X

    申请日:2023-05-30

    Applicant: 南京大学

    Abstract: 一种基于模态感知特征学习的RGBT目标跟踪方法,构建目标跟踪模型用于RGBT目标跟踪任务,目标跟踪模型包括特征提取模块、模态感知模块、Transformer融合模块、三分支预测头以及模板更新模块;训练采用迁移学习策略。本发明的模态感知模块结合通道特征的聚合和分发机制以及空间特征的相似性感知机制,充分挖掘多模态判别特征;Transformer融合模块用于融合模板与搜索区域的特征,采用混合注意力有效捕获全局依赖关系以增强实例表示;三分支预测头结合相互约束损失函数,提升目标定位精度;模板更新模块用于目标模板的优化,缓解了尺度变化、背景干扰、部分遮挡等挑战因素的影响,进一步提升目标跟踪的稳定性。

    一种视频中的人-物交互关系检测方法及装置

    公开(公告)号:CN112464875B

    公开(公告)日:2024-06-25

    申请号:CN202011450346.3

    申请日:2020-12-09

    Applicant: 南京大学

    Abstract: 一种视频中的人‑物交互关系检测方法及装置,通过目标轨迹检测提取视频中主语和物体的时空轨迹,再由交互联合推理基于目标轨迹检测的结果识别人‑物交互关系HOI,交互联合推理从目标时空轨迹中提取多模特征,包括人和物体的融合语义特征、人体行为视觉描述特征和人‑物时空相对运动特征,使用多特征融合的方式进行联合推理,预测视频段上的人‑物交互动作,得到预测的交互类别标签,即人‑物交互关系。本发明提出了一种基于时空域的人‑物交互检测方法,通过从复杂的视频视觉场景中捕获场景的高级语义信息,成功发现、定位和分类视频中人‑物对及其之间的交互关系。

    一种基于兴趣传播网络的兴趣视觉关系检测方法及装置

    公开(公告)号:CN111985505B

    公开(公告)日:2024-02-13

    申请号:CN202010848981.0

    申请日:2020-08-21

    Applicant: 南京大学

    Abstract: 达图像主体内容的兴趣视觉关系,具有良好的广一种基于兴趣传播网络的兴趣视觉关系检 泛性与实用性。测方法及装置,从输入图像中提取物体,并两两组合为物体对,计算相应的物体特征和联合特征,生成物体和物体对的视觉特征、语义特征和位置特征,经线性变换得到物体和物体对的兴趣特征,由此预测物体对兴趣度,并将物体对关系谓语的视觉特征、语义特征和位置特征经线性变换得到关系谓语的兴趣特征,预测物体间的关系谓语兴趣度;最后将物体对兴趣度和关系谓语兴趣度相结合得到视觉关系兴趣度,兴趣度高的视(56)对比文件陈方芳.基于目标对筛选和联合谓语识别的视觉关系检测《.中国优秀硕士学位论文全文数据库 信息科技辑》.2019,(第8期),I138-657.Yu, Fan,等.Visual Relation ofInterest Detection《.MM '20: PROCEEDINGSOF THE 28TH ACM INTERNATIONAL CONFERENCEON MULTIMEDIA》.2020,第1386-1394页.

    基于双流非对称网络的显著性物体检测方法、设备及介质

    公开(公告)号:CN117523180A

    公开(公告)日:2024-02-06

    申请号:CN202311655193.X

    申请日:2023-12-05

    Applicant: 南京大学

    Abstract: 基于双流非对称网络的显著性物体检测方法、设备及介质,构建深度学习模型对输入RGB图像和热图像进行显著性物体检测,首先由由非对称骨架网络进行RGB模态和T模态的特征提取,然后将前两阶段的特征输入通道‑空间特征交互模块进行模态特征交互,再将后两阶段的特征通过自注意力增强模块进行特征加强,最后通过RGB编码器、热编码器和融合特征编码器得到显著性物体检测图像。本发明针对RGB和热红外模态在通道数量和信息密度方面存在差异的问题提出了一种新颖的非对称网络,可以实现定位包含RGB和热红外信息的图像中的显著目标,在保证模型检测效果的情况下节省了不必要的计算开销,为模型部署提供了支持,具有良好的实用性。

    基于多级条件影响的卷积神经网络的细粒度动作检测方法

    公开(公告)号:CN111444889B

    公开(公告)日:2023-07-25

    申请号:CN202010362830.4

    申请日:2020-04-30

    Applicant: 南京大学

    Abstract: 基于多级条件影响的卷积神经网络的细粒度动作检测方法,建立一个多级条件影响的卷积神经网络,将视觉场景中附加的显性知识与多级视觉特征融合,所述多级条件影响的卷积神经网络MLCNet以条件影响的多分支卷积神经网络结构为主干,生成多级视觉特征,同时将人体结构和物体语境信息的附加空间语义信息作为条件进行编码,通过仿射变换和注意机制动态影响CNN的特征提取,最后融合调制多模特征以区分各种交互动作;对多级条件影响的卷积神经网络进行模型训练,得到的模型输出细粒度动作检测结果。本发明在HICO‑DET和V‑COCO这两个最常用的基准上对所提出的方法进行评估,实验结果表明,本发明方法优于现有的方法。

    基于多模态交互和多阶段优化的实时RGBT目标跟踪方法

    公开(公告)号:CN115170605A

    公开(公告)日:2022-10-11

    申请号:CN202210673885.6

    申请日:2022-06-15

    Applicant: 南京大学

    Abstract: 本发明提出了一种基于多模态交互和多阶段优化的实时RGBT目标跟踪方法,跟踪模型包括特征提取模块、多模态交互模块、目标分类器以及结果优化模块;利用公开的RGBT数据集对跟踪模型进行训练,包括离线训练和在线训练两个阶段。本发明构建多模态交互模块学习鲁棒的特征表达,改善跨模态特征之间的注意力计算方式,实现两种模态的互补增强,通过引入门控函数,有效去除冗余噪声的影响;构建多阶段优化模块结合光流算法和优化模型实现跟踪结目标的精确重定位,有效缓解相机抖动、局部遮挡等因素造成的影响,提升跟踪模型的鲁棒性和实时性。

    一种基于几何先验和知识图谱的自然场景文本识别方法

    公开(公告)号:CN114821609A

    公开(公告)日:2022-07-29

    申请号:CN202210497442.6

    申请日:2022-05-09

    Applicant: 南京大学

    Abstract: 一种基于几何先验和知识图谱的自然场景文本识别方法,采集领域场景文本图像,检测并裁出文本行图像,通过基于几何先验的形变矫正模型进行特征提取和柱状形变矫正;对矫正图通过基于注意力机制的视觉识别模块感知每个字符得到字符级别的对齐视觉纹理特征;再通过基于领域知识图谱的的全局语义推理模块引入场景领域知识,感知上下文信息,并编码高层语义特征;最后综合视觉和语义模块的输出得到文本识别结果。本发明可迁移应用于自控仪表、装备制造、数控机床、汽车制造、轨道交通等不同面向领域的自然场景文本识别,解决传统文本识别技术在自然场景中因柱面文本形变和缺乏相关词典而识别准确率不高的问题,实现对领域文本更精准的识别。

Patent Agency Ranking