-
公开(公告)号:CN118781419B
公开(公告)日:2025-03-21
申请号:CN202410909042.0
申请日:2024-07-08
Applicant: 北京科技大学
IPC: G06V10/764 , G06V20/59 , G06V20/56 , G06V10/82 , G06V40/16 , G06N3/0442 , G06N3/084
Abstract: 本发明提供一种驾驶员个性化驾驶意图预测方法及系统,涉及智能交通技术领域。所述方法包括:输入车辆的内部图像和外部图像,内部图像分为一般组图像和专家组图像;对内部图像进行预处理,得到驾驶员的面部特征,对外部图像进行预处理,得到环境特征;将驾驶员的面部特征和环境特征输入广义驾驶意图预测网络中,生成第一预测结果和置信区间;基于专家组图像的面部特征学习驾驶员意图偏好特征,得到第二预测结果;经过置信区间过滤后,选择一个作为最终预测结果。本发明充分考虑驾驶员个人意图偏好,提高了对不同驾驶员意图预测的准确率,以及在提前几秒意图预测任务上的准确率。
-
公开(公告)号:CN118469831B
公开(公告)日:2025-01-10
申请号:CN202410611048.X
申请日:2024-05-16
Applicant: 北京科技大学
IPC: G06T5/50 , G06N3/0464
Abstract: 本发明涉及数字影像技术领域,特别是指一种基于注意力机制的鲁棒自监督多模态图像融合方法及装置。所述方法包括:使用拍摄设备进行图像采集,获取可见光源图像以及红外源图像;根据可见光源图像以及红外源图像进行焦点融合处理,获得焦点融合图;基于注意力机制以及Transformer网络结构进行模块构建,获得联合学习模块;基于焦点融合图,将可见光源图像以及红外源图像输入联合学习模块进行图像融合,获得第二融合图像;将第二融合图像输入预设的语义模型进行语义添加,获得第三融合图像。本发明是一种基于注意力机制的效率高、鲁棒性强的自监督多模态图像融合方法。
-
公开(公告)号:CN116737976B
公开(公告)日:2024-12-06
申请号:CN202310704495.5
申请日:2023-06-14
Applicant: 北京科技大学
IPC: G06F16/583 , G06F16/55 , G06F16/35 , G06F16/33 , G06F16/34 , G06N3/0464 , G06N3/0455 , G06N3/09
Abstract: 本发明公开了一种基于话题聚类和转移预测的图像段落释意方法,包括:将句子话题定义为句子嵌入空间中的簇,使用预设的聚类算法对训练数据中的句子进行聚类,根据聚类结果得到每个句子的离散的话题标签;对所有训练数据的话题标签进行统计归纳,构建话题转移概率矩阵;基于话题标签对预设的层次化图像段落释意模型进行监督训练;其中,所述图像段落释意模型通过利用所述话题转移概率矩阵中包含的话题衔接信息来生成语义连贯的段落描述;利用训练好的图像段落释意模型处理待释意图像,得到图像段落释意。本发明的技术方案提升了图像段落释意模型的释意性能,并提高了话题预测的可解释性。
-
公开(公告)号:CN118781419A
公开(公告)日:2024-10-15
申请号:CN202410909042.0
申请日:2024-07-08
Applicant: 北京科技大学
IPC: G06V10/764 , G06V20/59 , G06V20/56 , G06V10/82 , G06V40/16 , G06N3/0442 , G06N3/084
Abstract: 本发明提供一种驾驶员个性化驾驶意图预测方法及系统,涉及智能交通技术领域。所述方法包括:输入车辆的内部图像和外部图像,内部图像分为一般组图像和专家组图像;对内部图像进行预处理,得到驾驶员的面部特征,对外部图像进行预处理,得到环境特征;将驾驶员的面部特征和环境特征输入广义驾驶意图预测网络中,生成第一预测结果和置信区间;基于专家组图像的面部特征学习驾驶员意图偏好特征,得到第二预测结果;经过置信区间过滤后,选择一个作为最终预测结果。本发明充分考虑驾驶员个人意图偏好,提高了对不同驾驶员意图预测的准确率,以及在提前几秒意图预测任务上的准确率。
-
公开(公告)号:CN117636241B
公开(公告)日:2024-08-16
申请号:CN202311537940.X
申请日:2023-11-17
Applicant: 北京科技大学
Abstract: 本发明涉及目标检测跟踪技术领域,特别是指一种基于决策级融合的低光照场景多模态行人检测跟踪方法及装置。一种基于决策级融合的低光照场景多模态行人检测跟踪方法包括:使用红外图像以及可见光图像,对目标检测模型进行训练,获得红外检测模型以及可见光检测模型;基于红外检测模型、可见光检测模型以及决策级融合算法进行模型构建,获得决策级融合检测模型;将待检测红外图像以及待检测可见光图像输入决策级融合检测模型,获得融合检测结果;将融合检测结果输入多目标跟踪算法,获得多目标跟踪结果;根据多目标跟踪结果进行可视化处理,获得跟踪视频序列。本发明是一种基于决策级融合的高效、实时的低光照多模态行人检测跟踪方法。
-
公开(公告)号:CN118470691A
公开(公告)日:2024-08-09
申请号:CN202410597315.2
申请日:2024-05-14
Applicant: 北京科技大学
IPC: G06V20/59 , G06V20/40 , G06V40/10 , G06V10/82 , G06V10/80 , G06N20/20 , G06N3/042 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于上半身姿态的驾驶员情绪状态检测方法及系统,涉及计算机视觉技术领域,包括:基于预设人体姿态估计模型识别待检测驾驶员的上半身视频片段中的人体关键部位,得到各关节位置的时间序列;对关节位置时间序列进行预处理,转化成关节流数据和骨骼流数据;分别将关节流和骨骼流数据输入到多个经过训练之后的图卷积神经网络模型,得到多个分类结果;基于集成学习方法融合多个分类结果,得到待检测驾驶员的情绪状态识别结果。本发明缓解了现有技术中存在的在驾驶环境下的动作情绪识别准确率较差的技术问题。
-
公开(公告)号:CN118446322A
公开(公告)日:2024-08-06
申请号:CN202410851175.7
申请日:2024-06-28
Applicant: 北京科技大学
IPC: G06N5/04 , G06N5/025 , G06N5/01 , G06N3/045 , G06N3/0464 , G06N3/0895 , G06F16/215 , G06F16/25
Abstract: 本发明涉及数据处理技术领域,特别是指一种基于大语言模型先验知识的推理状态控制方法及装置,该方法应用于自动驾驶离散化导航问题、集装箱堆叠问题、货物码放问题和自然语言文本下的文字数值计算问题,方法包括:获取无人系统决策推理的样本数据集;使用样本数据集、以及由ATE因果效应估计算法与交叉熵组成的损失函数,对初始的大语言模型进行训练;获取长程行动决策问题,构建因果概率树,确定剪枝和展开方向的优化问题,进而将长程行动决策问题切分为多个短程行动决策问题;使用训练好的大语言决策推理模型对多个短程行动决策问题进行求解,进而完成行动。采用本发明,可以解决大语言模型在长程推理任务中因果幻觉的问题,提高了推理的准确性。
-
公开(公告)号:CN118097498A
公开(公告)日:2024-05-28
申请号:CN202410170587.4
申请日:2024-02-06
Applicant: 北京科技大学
IPC: G06V20/40 , G06N3/0464 , G06N3/048 , G06N3/0499 , G06N3/082 , G06V10/46 , G06V10/82
Abstract: 本发明涉及周期性信号检测领域,特别是指一种基于周期稀疏注意的周期性信号检测方法及装置,方法包括:获取待检测的视频数据,进行数据预处理;将数据输入到基于周期稀疏注意的周期性信号检测模型;其中,周期性信号检测模型包括:卷积模块、块编码模块、层次化时间周期变换器模块以及信号预测头模块;对模型输出进行数据后处理得到周期性信号检测结果。本发明显式的利用周期性,提出了一种周期稀疏注意力机制。先让模型通过预注意阶段感知到信号的周期性特征,在较大的时空感受野计算时空相关性,聚合时间上相位相近、空间上信号丰富的高相关度区域;然后通过进一步的精细关注阶段细粒度地在上述区域中从多个时间尺度中建模周期性信号。
-
公开(公告)号:CN117694845B
公开(公告)日:2024-04-26
申请号:CN202410168344.7
申请日:2024-02-06
Applicant: 北京科技大学
IPC: A61B5/02 , A61B5/00 , G06F18/10 , G06F18/213 , G06F18/25 , G06V20/40 , G06V10/80 , G16H10/60 , G16H50/70
Abstract: 本发明涉及生理信号检测领域,特别是指一种基于融合特征增强的非接触式生理信号检测方法及装置,方法包括:获取待检测脉搏波的视频数据,对视频数据进行预处理,得到预处理后的视频数据;将预处理后的视频数据输入到非接触式生理信号检测模型,得到脉搏波信号;其中,非接触式生理信号检测模型包括:融合主干模块、时差变换器模块以及预测器模块;根据脉搏波信号对心率、心率变异性等生理信号进行计算,得到非接触式生理信号检测结果。本发明通过将差分帧融合到原始帧中,使帧级表示能够感知BVP波变化,有效增强rPPG表示,进而引导变换器的自注意力机制,加强其对rPPG特征的关注。
-
公开(公告)号:CN117911788A
公开(公告)日:2024-04-19
申请号:CN202410181444.3
申请日:2024-02-18
Applicant: 北京科技大学
IPC: G06V10/764 , G06V10/74 , G06V10/26 , G06N3/0464 , G06N3/045 , G06N3/09
Abstract: 本发明公开了一种基于仿真环境的场景结构标注数据生成方法,包括以下步骤:获取图像并对图像进行预处理;基于环境认知抽象算法对图像中的智能体进行实体信息抽取以及实体关系抽取;基于抽取结果进行场景知识结构表征,采用物体‑关系‑物体的三元组集合表征图结构存储,采用抽象语言特征的语言模型对图结构存储进行嵌入编码保存得到节点信息,存储节点信息并输出得到标注。本发明还公开了一种基于仿真环境的场景结构标注数据生成装置。本发明利用知识抽取方法和图结构知识表征,高效提炼图像中的关键信息,大批量准确的形成场景图语义标注,有效提高场景图数据标注的效率。
-
-
-
-
-
-
-
-
-