-
公开(公告)号:CN115607159A
公开(公告)日:2023-01-17
申请号:CN202211598004.5
申请日:2022-12-14
Applicant: 北京科技大学
Abstract: 本发明公开了一种基于眼动序列时空特征分析的抑郁状态鉴别方法及装置,涉及视觉分析技术领域。包括:获取待鉴别测试者在观看正负性情绪图片组合时的眼动数据;将待鉴别测试者的眼动数据输入到构建好的基于眼动序列时空特征的抑郁状态鉴别网络;根据待鉴别测试者的眼动数据以及基于眼动序列时空特征的抑郁状态鉴别网络,得到待鉴别测试者的抑郁状态鉴别结果。本发明设计了基于眼动序列时空特征的抑郁状态鉴别网络,提取视觉扫视路径中的时间和空间特征结合作为实验刺激的情绪图像的语义来表征测试者的心理状态,从而实现了对不同心理状态人群的分类。
-
公开(公告)号:CN114220522A
公开(公告)日:2022-03-22
申请号:CN202210159451.4
申请日:2022-02-22
Applicant: 北京科技大学
Abstract: 本发明公开了一种基于视觉认知注意的心理测评数据采集与干预方法及系统,涉及数据采集技术领域。包括:控制客户端获取被试者的信息,并发送指令到服务器;服务器接收开始测评指令,并发送到主机客户端;主机客户端接收开始测评指令,并完成测评得到测评数据,将测评数据以数据流的形式传输到服务器;云端算法服务器对测评数据进行分析,得到分析结果;服务器将分析结果返回到控制客户端,控制客户端根据分析结果判断是否发送干预指令;数据服务器对分析结果进行保存和管理。本发明能够提高算法运行的效率和安全性;避免因网络流量波动和服务器故障使范式测评图像数据流和文本数据流的传输中断;对眼动注视轨迹数据进行客观、高效、准确地采集。
-
公开(公告)号:CN114209324A
公开(公告)日:2022-03-22
申请号:CN202210154330.0
申请日:2022-02-21
Applicant: 北京科技大学
Abstract: 本发明提供了一种基于图像视觉认知的心理状态数据分析方法及VR系统,涉及心理评估系统技术领域。包括:实验范式呈现模块向测试者呈现测试图像;VR端数据采集模块采集测试者的原始眼动数据和瞳孔数据;心理状态数据分析模块将VR端数据采集模块采集到的原始眼动数据和瞳孔数据分别进行预处理和分析;多终端PC管理模块对实验范式呈现模块、VR端数据采集模块以及心理状态数据分析模块进行管控。本发明提出基于注意偏向理论和瞳孔反应理论的图像自由观看范式和任务驱动范式;在轻量级VR设备上搭建了具有沉浸感和交互性的基于图像的心理测评系统,实现多台设备同时进行测试。
-
公开(公告)号:CN113283402B
公开(公告)日:2021-11-05
申请号:CN202110822170.8
申请日:2021-07-21
Abstract: 本申请公开了一种差分式二维注视点检测方法及其装置,属于视觉分析技术领域。方法包括:采集测试者注视预设校准点时的面部图像以及注视待测点的面部图像;根据特征抽取神经网络、采集的校准数据,计算得到测试者的校准图像特征以及待检测图像特征;根据校准图像特征、待检测特征得到测试者注视点在屏幕上的坐标;对多次校准得到的预测结果进行加权求和,由此,得到测试者的注视点序列,从而快速、准确地挖掘出其感兴趣的区域。
-
公开(公告)号:CN112674770B
公开(公告)日:2021-09-21
申请号:CN202011530259.9
申请日:2020-12-22
Applicant: 北京科技大学 , 清华大学 , 北京清视野科技有限责任公司
IPC: A61B5/16
Abstract: 本申请公开了一种基于图像的显著性差异和情绪分析的抑郁人群眼动鉴别方法,其中,方法包括:采集测试者在第一预设时间内的眼动轨迹数据;根据显著性差异检测网络和眼动轨迹数据,得到正常人群与抑郁人群的显著性注视差异图;通过预设的弱监督耦合网络生成情感图像在各情感维度的分布特征图;根据显著性注视差异和情感维度的分布特征图,得到正常人群与抑郁人群的注意力机制差异,以根据注意力机制差异进行抑郁状态识别。由此,从注意力机制两个角度来分析测试者在实验过程中的眼动轨迹数据,挖掘正常人与抑郁症患者之间的差异,并提取相应的特征来表征测试者的心理状态,从而快速、准确地完成抑郁状态识别任务。
-
公开(公告)号:CN120070901A
公开(公告)日:2025-05-30
申请号:CN202510546772.3
申请日:2025-04-28
Applicant: 北京科技大学
IPC: G06V10/26 , G06V10/762 , G06T3/067
Abstract: 本发明提供一种基于多视角一致性的零样本点云实例分割方法和系统,包括:从三维点云对应的二维图像序列中提取多个关键帧;将分割关键帧生成的2D掩码作为提示,对二维图像序列进行分割和跟踪,得到所有物体的2D掩码;对三维点云进行超分割得到一系列超点,进行3D到2D的投影,获得每个超点在每张图像上的2D掩码,由2D掩码之间的亲和度分数表示超点之间的边,构建超点图;使用掩码一致性权重修正所述亲和度分数,赋予低质量掩码以低的权重得到修正后的超点图;通过多层次超点迭代图聚类,对具有不同视角一致性级别的超点进行分层合并得到3D实例分割结果。本发明可以对3D点云进行实例分割。
-
公开(公告)号:CN119068393B
公开(公告)日:2025-04-29
申请号:CN202411145652.4
申请日:2024-08-20
Applicant: 北京科技大学
Abstract: 本发明涉及情感计算技术领域,特别是指一种融合CLIP和自适应图变换网络的人格预测方法及装置。所述方法包括:获取待进行人格预测的视频数据;根据视频数据以及Wav2CLIP‑graph方法,得到音频‑场景关联特征;根据视频数据以及CLIP方法,得到场景‑人格描述词关联特征;根据视频数据以及VGGish CNN‑RNN方法,得到音频表示特征;将音频‑场景关联特征、场景‑人格描述词关联特征以及音频表示特征输入到多模态通道注意力残差融合模块,得到融合多模态特征,进而得到人格特质预测结果。本发明提出了一个新颖的多模态特征学习框架,用于从短视频中分析人格特质。
-
公开(公告)号:CN115731542B
公开(公告)日:2025-03-04
申请号:CN202211435079.1
申请日:2022-11-16
Applicant: 北京科技大学
Abstract: 本发明涉及一种多模态弱监督三维目标检测方法、系统及设备。该方法包括:拍摄多张2D RGB图像,基于2D RGB图像上的二维框标注生成三维视锥;在三维视锥中,滤除车辆激光雷达传感器采集的三维点云中的地面点,依靠种子点区域生长方法,确定三维点数目最多的区域;基于密度的三维参数估计方法,根据三维点数目最多的区域生成物体的三维伪标注框;以三维伪标注框为目标,根据2D RGB图像以及三维点云训练多模态超像素双分支网络;将当前帧的2D RGB图像以及当前场景的三维点云输入至训练后的多模态超像素双分支网络中,生成整体三维点云。本发明能缓解二维和三维模态的分辨率不一致问题,充分利用多模态信息识别和定位三维物体。
-
公开(公告)号:CN118470691B
公开(公告)日:2025-02-14
申请号:CN202410597315.2
申请日:2024-05-14
Applicant: 北京科技大学
IPC: G06V20/59 , G06V20/40 , G06V40/10 , G06V10/82 , G06V10/80 , G06N20/20 , G06N3/042 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于上半身姿态的驾驶员情绪状态检测方法及系统,涉及计算机视觉技术领域,包括:基于预设人体姿态估计模型识别待检测驾驶员的上半身视频片段中的人体关键部位,得到各关节位置的时间序列;对关节位置时间序列进行预处理,转化成关节流数据和骨骼流数据;分别将关节流和骨骼流数据输入到多个经过训练之后的图卷积神经网络模型,得到多个分类结果;基于集成学习方法融合多个分类结果,得到待检测驾驶员的情绪状态识别结果。本发明缓解了现有技术中存在的在驾驶环境下的动作情绪识别准确率较差的技术问题。
-
公开(公告)号:CN119279590A
公开(公告)日:2025-01-10
申请号:CN202411335004.5
申请日:2024-09-24
Applicant: 北京科技大学
IPC: A61B5/18 , A61B5/16 , A61B5/0205 , A61B5/33 , A61B5/24 , A61B5/00 , G06V20/59 , G06V40/16 , G06V40/10 , G06V10/80 , G06V20/52
Abstract: 本发明公开了一种驾驶场景人因安全监测实验平台及方法,属于安全驾驶技术领域,该发明由多个采集设备、实验机、服务器以及显示器组成,通过多个采集设备采集用户实验过程中的监测数据,并与当前仿真驾驶场景信息对应,采用双分支多帧时序特征聚合网络模型,最终得到人因安全监测实验结果,该发明将驾驶员的当前行为模式和生理信号进行全面监测,并于当前仿真的复杂驾驶场景信息对应,解决了人因安全监测泛用性较差,难以适应各种复杂和多变的驾驶环境和无法全面监测驾驶员生理信号的问题,使得人因安全监测实验结果更加准确可靠。
-
-
-
-
-
-
-
-
-