一种实时击键压力采集系统

    公开(公告)号:CN102389317A

    公开(公告)日:2012-03-28

    申请号:CN201110196411.9

    申请日:2011-07-14

    Abstract: 本发明提供一种实时击键压力采集系统。它是由压力传感器和接口电路组成的,压力传感器连接接口电路,压力传感器使用四个应变片组成一个惠斯通全桥电路,将电阻的变化转换为电压的变化再进行采集;压力传感器安装在标准键盘的底部,包括键帽和回弹装置,接口电路包括放大器、多路复选器、模数转换器和主控制器,模数转换器将选通的模拟信号数字化,主控制器负责整个硬件电路的控制及与计算机通信,采用89SC52作为主控单元,其内置的串口控制器可以方便的与计算机进行通信。本发明在不改变用户接口的情况下实时采集击键压力,使用普通键盘作为用户接口,克服了使用特殊键盘容易造成用户击键习惯改变的缺点,这对于身份识别意义重大。

    一体化非接触式手部特征图像采集系统

    公开(公告)号:CN102129552A

    公开(公告)日:2011-07-20

    申请号:CN201110050820.8

    申请日:2011-03-03

    Abstract: 本发明提供一种一体化非接触式手部特征图像采集系统。它是由用户界面模块单元、光学模块单元、光源与摄像机控制电路单元、A/D转换模块单元和存储模块单元组成的,用户界面模块单元连接光学模块单元,光学模块单元分别连接光源与摄像机控制电路单元和A/D转换模块单元,A/D转换模块单元连接存储模块单元,本发明在被采集者手掌不接触采集设备的情况下,同时采集手掌纹、手掌静脉和手背静脉图像,用于基于手部特征的人体生物特征识别系统。以非接触方式采集人手图像,具有良好的用户接受度。一体化程度较高,具有良好的用户接口,被采集者的手部不用被束缚,有辅助装置引导手掌放置,避免因被采集者手部过度自由导致的图像质量不佳。

    基于自然语言描述和协同全局-局部视角学习的目标追踪方法

    公开(公告)号:CN119559548A

    公开(公告)日:2025-03-04

    申请号:CN202411605976.1

    申请日:2024-11-12

    Inventor: 马丁 邬向前 卜巍

    Abstract: 本发明公开了一种基于自然语言描述和协同全局‑局部视角学习的目标追踪方法,所述方法包括如下步骤:步骤1、输入视频帧的特征提取与初步处理;步骤2、全局和局部分支视觉特征的提取;步骤3、多模态特征对齐实现信息互补和一致性表达;步骤4、对称注意力操作选择重要信息;步骤5、通过预测模块估计目标的位置;步骤6、追踪模型优化。本发明通过全局与局部特征的协同建模、多模态对齐机制以及对称注意力的特征增强,显著提升了目标追踪的精度和鲁棒性,解决了现有技术中全局与局部信息融合不充分、视觉与语言特征对齐能力不足的问题。本发明能够在复杂场景和自然语言描述的条件下精准定位目标,并在多个具有自然语言标注的目标追踪数据集上展现了卓越的性能。

    基于注意力机制和自蒸馏的手持器械细粒度定位方法

    公开(公告)号:CN119540513A

    公开(公告)日:2025-02-28

    申请号:CN202411664240.1

    申请日:2024-11-20

    Abstract: 本发明公开了一种基于注意力机制和自蒸馏的手持器械细粒度定位方法,所述方法通过引入特征融合模块、双重注意力模块以及自蒸馏机制,解决了现有技术中多尺度特征融合不足、器械边界模糊和干扰区域识别不准确的问题。具体而言,特征融合模块则对不同尺度的特征图进行有效融合,以获取更为精确的全局与局部信息;双重注意力模块通过结合通道注意力与位置注意力,进一步增强对复杂手术场景中器械特征的捕捉能力;自蒸馏机制则通过跨层知识传播提高定位模型的精度,尤其是在保持轻量化模型结构的前提下,显著优化了定位性能。本发明不仅提升了模型对复杂语义关系的理解能力,还在器械的细节定位和干扰区域的准确识别方面取得了显著进步。

    基于知识蒸馏的隐空间语义监督的跨模态检索方法

    公开(公告)号:CN115565007B

    公开(公告)日:2024-10-11

    申请号:CN202211240066.9

    申请日:2022-10-11

    Inventor: 邬向前 卜巍 张力

    Abstract: 本发明公开了一种基于知识蒸馏的隐空间语义监督的跨模态检索方法,整个网络的总体结构大体上可以分成四个部分:第一个部分:多模态特征提取网络,第二个部分:图像和文本隐空间的构建,第三个部分:基于知识蒸馏的隐空间语义监督,第四个部分:图像文本匹配。本发明将BUA中的目标分类器和属性分类器引入图像隐空间,通过知识蒸馏将BUA中的语义知识转移到图像隐空间中。本发明在文本隐空间中引入目标和属性分类器,使文本特征和相应的文本上下文特征保持一致。本发明的方法可以很好地进行跨模态检索,并在多个数据库上取得了具有竞争力的结果。

    基于长短时上下文解耦和自然语言查询的目标跟踪方法

    公开(公告)号:CN117314959A

    公开(公告)日:2023-12-29

    申请号:CN202311186980.4

    申请日:2023-09-14

    Inventor: 邬向前 卜巍 马丁

    Abstract: 一种基于长短时上下文解耦和自然语言查询的目标跟踪方法,所述方法包括如下步骤:步骤一、使用在ImageNet数据集上预训练的ResNet网络和Transfomer结构的编码器提取视频帧级特征;步骤二、拼接视频帧级特征获得视频级特征;步骤三、使用文本编码器获得文本查询特征;步骤四、通过短时上下文匹配分支捕捉动态上下文信息;步骤五、通过长时上下文感知分支捕捉静态上下文信息;步骤六、通过长短时调制模块自适应地调控所需的长时或短时上下文信息;步骤七、通过预测模块估计目标的位置;步骤八、模型优化。较现有的基于自然语言查询的目标跟踪方法,本发明的目标定位的准确度取得了显著提高,展现了良好的跟踪鲁棒性。

    基于知识蒸馏的多出口全卷积网络的目标跟踪方法

    公开(公告)号:CN113963022B

    公开(公告)日:2023-08-18

    申请号:CN202111221017.6

    申请日:2021-10-20

    Inventor: 邬向前 卜巍 马丁

    Abstract: 本发明公开了一种基于知识蒸馏的多出口全卷积网络的目标跟踪方法,所述方法包括如下步骤:步骤一、构建基于知识蒸馏的多出口全卷积网络;步骤二、基于知识蒸馏的多出口训练。本发明提出了一种基于知识蒸馏的多出口全卷积结构用于基于分类的跟踪,凭借知识蒸馏的优势,鼓励前序出口模仿学习后续出口的概率输出,从而提高前序出口的判别能力。本发明通过利用多个RoIAlign层来提取不同尺度的区域特征,并在每个出口融合以上区域特征来提高判别能力。本发明使用不同种类的注意力模块来捕获不同的目标特定信息,提高了目标与背景及其干扰物区分能力。本发明在取得更高的跟踪精度的同时,还拥有相对较快的处理速度。

    基于特征分离和重建的跨模态检索方法

    公开(公告)号:CN113656539B

    公开(公告)日:2023-08-18

    申请号:CN202110859387.6

    申请日:2021-07-28

    Inventor: 邬向前 卜巍 张力

    Abstract: 本发明公开了一种基于特征分离和重建的跨模态检索方法,所述方法包括如下步骤:步骤一、获得视觉表示;步骤二、将单词序列转化为文本表示;步骤三、通过视觉和文本多层感知器进行线性变换,分别得到视觉空间和文本空间的特征向量;步骤四、将不同模态空间的特征向量分解为模态信息、语义信息、特定信息三部分;步骤五、利用特征分离模块将模态信息、语义信息和特定信息从视觉/文本表示中分离出来,得到视觉表示和文本表示的模态信息、语义信息和特定信息;步骤六、结合图像三种不同的信息进行图像重建;步骤七、对文本三种不同的信息进行文本重建。本发明的方法可以很好地进行跨模态检索,并在多个数据库上取得了具有竞争力的结果。

    基于知识蒸馏的多出口全卷积网络的目标跟踪方法

    公开(公告)号:CN113963022A

    公开(公告)日:2022-01-21

    申请号:CN202111221017.6

    申请日:2021-10-20

    Inventor: 邬向前 卜巍 马丁

    Abstract: 本发明公开了一种基于知识蒸馏的多出口全卷积网络的目标跟踪方法,所述方法包括如下步骤:步骤一、构建基于知识蒸馏的多出口全卷积网络;步骤二、基于知识蒸馏的多出口训练。本发明提出了一种基于知识蒸馏的多出口全卷积结构用于基于分类的跟踪,凭借知识蒸馏的优势,鼓励前序出口模仿学习后续出口的概率输出,从而提高前序出口的判别能力。本发明通过利用多个RoIAlign层来提取不同尺度的区域特征,并在每个出口融合以上区域特征来提高判别能力。本发明使用不同种类的注意力模块来捕获不同的目标特定信息,提高了目标与背景及其干扰物区分能力。本发明在取得更高的跟踪精度的同时,还拥有相对较快的处理速度。

    基于超像素的笔画特征变换和深度学习的区域分类的场景文本检测方法

    公开(公告)号:CN108345850B

    公开(公告)日:2021-06-01

    申请号:CN201810103800.4

    申请日:2018-02-01

    Abstract: 本发明公开了一种基于超像素的笔画特征变换和深度学习的区域分类的场景文本检测方法,所述方法包括如下步骤:一、字符区域提取:(一)基于超像素的笔画特征变换:(1)超像素分割和聚类;(2)删除背景区域;(3)区域细化;(二)基于深度学习的区域分类:(1)特征提取;(2)特征融合;(3)区域分类;二、文本区域检测:(1)候选文本区域生成;(2)候选文本区域分类。本发明的方法不仅可以实现自然场景中不同大小的文本检测,而且可以实现自然场景中不同颜色的文本检测,包括与背景颜色接近的文本,还可以实现复杂背景下的文本检测,如栅栏、窗户等场景中的文本检测。

Patent Agency Ranking