-
公开(公告)号:CN118356596A
公开(公告)日:2024-07-19
申请号:CN202410342413.1
申请日:2024-03-25
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明公开了一种基于A型超声信号的超声聚焦导航方法及相关设备,所述方法包括:获取聚焦电信号和感知电信号,分别进行放大处理得到聚焦激励电信号和感知激励电信号,分别进行转化处理得到聚焦超声波和A型超声信号;当将聚焦超声波和A型超声信号发射至目标人体组织时得到对应的第一回波信号和第二回波信号,分别进行预处理得到聚焦位置信息及波形曲线信息;根据波形曲线信息得到形态学信息,并根据形态学信息和聚焦位置信息调整得到目标聚焦区域。本发明通过使用A型超声信号检测肌肉形态信息,以调整超声探头的位置和相控阵的相位,实现对焦点位置的优化调整,从而实现更精确而有效的聚焦刺激,并且适应更加多样化的使用场景。
-
公开(公告)号:CN117828281A
公开(公告)日:2024-04-05
申请号:CN202410247777.1
申请日:2024-03-05
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06F18/10 , G06F18/213 , G06F18/25
Abstract: 本发明公开了一种基于跨模态超图的行为意图识别方法、系统及终端,所述方法包括:获取目标对象在目标时间段内的多个不同的片段模态特征,对每个片段模态特征进行时域信息增强处理和跨模态增强处理,得到每个片段模态特征对应的单模态增强特征和跨模态增强特征,再得到跨模态超图中每个节点对应的擦除前时域特征、擦除前空域特征、擦除后时域特征和擦除后空域特征,进行融合得到最终融合特征,最后根据最终融合特征得到目标对象的行为预测结果。本发明结合使用了物理信号和生理信号,充分利用了不同模态之间信息的互补性,在时间维度和空间维度实现跨模态的交互和增强,能够有效消除模态间的不确定性,实现对患者的认知与行为检测。
-
公开(公告)号:CN117634547A
公开(公告)日:2024-03-01
申请号:CN202311593800.4
申请日:2023-11-24
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 交浦科技(深圳)有限公司
IPC: G06N3/008
Abstract: 本发明公开了一种探索指尖触觉敏感度的仿生视触觉感知装置,涉及人机交互技术领域,其特征在于,包括触觉行为执行层、硅胶接触层、相机感知层和数据处理层,其中,所述触觉行为执行层用于控制所述硅胶接触层完成接触动作,所述相机感知层用于拍摄记录所述硅胶接触层的变形,所述相机感知层记录的视频由所述数据处理层进行处理。本发明采用视触觉感知的方法,建立仿人手指尖功能特性的装置,以指尖作为研究对象,采用间接方法,设计仿生高速视触觉感知装置,用来探究人手指尖触觉敏感度,量化触觉感知能力,能够有效推进触觉感知机理的研究进展。
-
公开(公告)号:CN117292815A
公开(公告)日:2023-12-26
申请号:CN202311030187.5
申请日:2023-08-15
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 交浦科技(深圳)有限公司
IPC: G16H50/20 , G06V40/20 , G06V10/44 , G06T7/215 , G06T7/246 , G06V10/82 , G06V10/26 , G06N3/0464 , G06N3/096
Abstract: 本发明公开了一种基于目标感知的标志行为检测方法,包括:步骤一、建立检测场景下的目标检测与多目标跟踪模型;步骤二、建立拥有目标感知能力的动作分割模型;步骤三、建立基于迁移学习的动作分割增强模型;步骤四、基于动作分割融合分析进行标志行为检测;其中,所述步骤一包括建立多层深度聚合特征提取器、建立基于目标计数约束的多目标检测、跟踪模型。本发明还提供了上述方法在孤独症早期标志行为检测中的应用。本发明有效地解决了传统的目标检测任务应用于孤独症早期标志行为检测时遇到的准确性不高和时效性不佳的问题。
-
公开(公告)号:CN117253269A
公开(公告)日:2023-12-19
申请号:CN202310927296.0
申请日:2023-07-26
Applicant: 交浦科技(深圳)有限公司 , 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06V40/16 , G06V40/20 , G06V10/25 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种多模态融合人‑物交互检测的异常行为检测系统,包括:交互场景;视觉系统,设置在交互场景旁,用于检测人‑物互动动作;交互场景包括可穿戴设备;视觉系统包括支架、设置在支架上的视觉获取设备和控制装置;支架设置在交互场景的一侧,视觉获取设备能够检测人‑物互动区域;控制装置与可穿戴设备、视觉获取设备通讯,以获取其采集的数据;控制装置运行深度学习模型,利用数据作为输入,判断异常行为。本发明还提供了利用上述检测系统检测孤独症异常行为的方法。本发明利用视觉装置捕捉儿童动作,利用手环获得儿童生理信息,利用人‑物交互检测技术判别儿童异常动作,提高检测准确度,为孤独症儿童筛查提供客观辅助。
-
公开(公告)号:CN116311535B
公开(公告)日:2023-08-22
申请号:CN202310553376.4
申请日:2023-05-17
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06V40/20 , G06V10/42 , G06V10/44 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/08 , G06N3/0455 , G06N3/0464
Abstract: 本发明提供了一种基于人物交互检测的危险行为分析方法及系统,该危险行为分析方法包括:步骤1:原始图像经过图像特征提取器进行高级特征提取;步骤2:将步骤1提取出的特征分别送入动作感知模块和目标感知模块进行隐式的动作语义特征提取和显式的目标感知特征提取;步骤3:将步骤2提取出的动作语义特征和目标感知特征送入交互感知模块进行融合,得到包含动作感知特征和目标感知特征的交互特征,所述交互特征被用于最终的人‑物交互预测。本发明的有益效果是:本发明通过人‑物交互检测从细粒度层级上分析人体行为,可实现危险行为精确分析。
-
公开(公告)号:CN119673458A
公开(公告)日:2025-03-21
申请号:CN202411818328.4
申请日:2024-12-11
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 世迈嘉医疗科技(丽水)有限公司
IPC: G16H50/30 , G06V40/20 , G06V10/26 , G06V10/764
Abstract: 本发明涉及一种基于动作分割的社交动作完成度评估方法及系统,所述方法包括:引导用户做出多个评估动作,采集每个所述评估动作的用户动作数据流;对每个所述评估动作,提取对应的所述用户动作数据流中每帧的动作判定数据;对每个所述评估动作,根据对应的各帧的所述动作标签计算评估指标,输出所述评估指标。本发明通过制定系统的评估过程减轻了对于康复专业人员的需求,避免了人工评估带来的评估专业人员不足,消耗人力资源,以及人工评估的结果往往基于专业人员的主观感受,缺乏具体客观的评估指标的问题。
-
公开(公告)号:CN117953543A
公开(公告)日:2024-04-30
申请号:CN202410346348.X
申请日:2024-03-26
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明公开基于多元文本的人物交互检测方法、终端及可读存储介质,所述方法包括:获取原始待检测图像,根据所述原始待检测图像获取所述原始待检测图像中的人目标和物目标的多角度交互特征;获取先验文本的先验文本特征,将所述多角度交互特征和所述先验文本特征进行双向特征融合,得到融合图像特征和融合文本特征;根据所述多角度交互特征、所述融合图像特征和所述融合文本特征,输出人目标和物目标的交互动作预测结果。可以看出,本发明通过多元化文本的交叉对照,从而避免了单个文本作为先验信息时,会引入有歧义性的先验文本特征,进而影响模型预测的准确性和鲁棒性的问题,从而提高了模型整体预测的准确性和鲁棒性。
-
公开(公告)号:CN117137485A
公开(公告)日:2023-12-01
申请号:CN202310927917.5
申请日:2023-07-26
Applicant: 交浦科技(深圳)有限公司 , 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明公开了一种情感认知与表达评估机器人,涉及自闭症儿童评估和干预技术领域,包括主控系统、人机交互系统、视觉采集系统和机械框架结构。机械框架结构包括万向轮、主控单元外壳和可升降支架。主控系统包括主控电脑。人机交互系统包括头部小显示屏、身体大触控屏以及音频输出设备。视觉采集系统包括Kinect摄像机和RGB摄像机。本发明提出的情感认知与表达评估方法,包括引导与教学阶段:基于表情的情感认知阶段、基于情景的情感表达认知阶段;评估阶段:情景情感认知阶段、情感表达模仿阶段和自我情感认知阶段。该设备具有交互性和沉浸式体验,有助于儿童的干预和评估互动。该方法能引导教学、评估全流程自动化,减少人力投入,得出全面评估的量表。
-
公开(公告)号:CN116311535A
公开(公告)日:2023-06-23
申请号:CN202310553376.4
申请日:2023-05-17
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06V40/20 , G06V10/42 , G06V10/44 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/08 , G06N3/0455 , G06N3/0464
Abstract: 本发明提供了一种基于人物交互检测的危险行为分析方法及系统,该危险行为分析方法包括:步骤1:原始图像经过图像特征提取器进行高级特征提取;步骤2:将步骤1提取出的特征分别送入动作感知模块和目标感知模块进行隐式的动作语义特征提取和显式的目标感知特征提取;步骤3:将步骤2提取出的动作语义特征和目标感知特征送入交互感知模块进行融合,得到包含动作感知特征和目标感知特征的交互特征,所述交互特征被用于最终的人‑物交互预测。本发明的有益效果是:本发明通过人‑物交互检测从细粒度层级上分析人体行为,可实现危险行为精确分析。
-
-
-
-
-
-
-
-
-