一种基于持续学习的PCB板缺陷检测方法及装置

    公开(公告)号:CN116630277A

    公开(公告)日:2023-08-22

    申请号:CN202310610302.X

    申请日:2023-05-29

    Applicant: 清华大学

    Abstract: 本发明提出一种基于持续学习的PCB板缺陷检测方法及装置,属于PCB板缺陷检测领域。其中,所述方法包括:获取PCB板的缺陷部位图像作为待检测图像,将待检测图像输入预设的PCB板缺陷检测模型;若待检测图像对应的缺陷类型已用于训练PCB板缺陷检测模型,则该模型输出该图像的缺陷检测结果;若待检测图像对应的缺陷类型未用于训练PCB板缺陷检测模型,则利用该图像训练PCB板缺陷检测模型,以得到可识别新的缺陷类型的更新后的PCB板缺陷检测模型。本发明在无法获得已知缺陷类型训练数据的情况下,可实现对已知缺陷类型的检测同时也能够增量式地学习并检测新的缺陷类型,大大提高了PCB板缺陷检测模型的适用性和拓展性。

    一种陆空两栖无人车自动模态切换与地面避障的训练方法

    公开(公告)号:CN115718485A

    公开(公告)日:2023-02-28

    申请号:CN202211119587.9

    申请日:2022-09-14

    Applicant: 清华大学

    Abstract: 本发明提出了一种陆空两栖无人车自动模态切换与地面避障的训练方法,该方法包括:步骤1)基于Gazebo仿真器构建训练场景;步骤2)基于机器学习强化学习原理,将路空两栖无人车在训练场景中获取的感知信息输入决策神经网络,采用∈贪婪方法与好奇心驱动结合的策略规划行进轨迹及切换运动模态,将动作指令传入Gazebo仿真器指挥无人车运动;步骤3)将运动相关数据存入经验池,基于n步时序差分法从经验池中随机抽取若干组数据对决策神经网络进行优化;转至步骤2)直至无人车触发终止条件或满足预设的训练步长,则终止一个训练周期;步骤4)当未达到训练周期总数,转至步骤1)开始一个新的训练周期,否则得到训练好的决策神经网络。

    一种人机交互的声音分离的方法

    公开(公告)号:CN109545240B

    公开(公告)日:2022-12-09

    申请号:CN201811375640.5

    申请日:2018-11-19

    Applicant: 清华大学

    Abstract: 本发明涉及一种人机交互的声音分离的方法,属于音频处理技术领域。该方法首先对待分离的音频进行初步分离,得到每个声音源的音频并划分为不发声区间和发声区间,将该声音源的区间分布图呈现用户,使得用户听音频并看到音频进度对应区间位置;若用户满意声音分离效果,则分离结束;若用户不满意分离结果,则用户可对发声区间和不发声区间进行修改,直至得到满意的分离结果;用户还可以对分离结果进行精细调整,删除声音源中包含其他声音源的声音。本发令用户分离声音无需相应的音乐知识,使得普通用户能够轻松分离视频或音频中不同来源的声音。

    多机器人在线任务分配和执行方法、装置及存储介质

    公开(公告)号:CN115284288A

    公开(公告)日:2022-11-04

    申请号:CN202210958761.2

    申请日:2022-08-09

    Applicant: 清华大学

    Abstract: 本公开提供的多机器人在线任务分配和执行方法、装置及存储介质,包括:预训练阶段,构建场景编码模型,将其与分类模型连接,训练场景编码模型以将场景内的语义图进行编码,并在编码中保留位置和语义信息;训练阶段,构建多机器人任务分配和执行模型,对其训练,使之根据任务语言指令和多机器人的视觉观测图像进行动态任务分解和分配,使多机器人协作完成指定任务;测试阶段,给定任务语言指令,多机器人任务分配和执行模型根据该指令和机器人的视觉观测图像在每一步对任务进行动态分解和分配,并为各机器人生成下一步导航的子目标,使多机器人协同完成任务。本公开可推理出语言指令中隐含的信息,对指定任务进行动态分配,并由多机器人协作完成。

    一种从红外图像中解译文字描述的方法及装置

    公开(公告)号:CN115170918A

    公开(公告)日:2022-10-11

    申请号:CN202210708793.7

    申请日:2022-06-22

    Applicant: 清华大学

    Abstract: 本发明提出一种从红外图像中解译文字描述的方法及装置,属于计算机视觉和红外图像处理领域。其中,所述方法包括:获取红外图像,将所述红外图像输入预设的红外图像描述网络,得到所述图像对应的文字描述,所述文字描述包含所述红外图像中的目标以及所述目标之间的关系。本发明通过从红外图像获取目标及其周围的重要热源信息,可使人们可以在任意时间、任意地点对环境信息进行捕获和解译,不再局限于可见光充足的条件下,填补了环境信息解译在暗光或无光环境下使用范围的空白,对所关心目标在弱光或无光下的捕获与描述具有极大的实用意义。

    一种面向盲人的物体寻找系统及方法

    公开(公告)号:CN113536945A

    公开(公告)日:2021-10-22

    申请号:CN202110684533.6

    申请日:2021-06-21

    Applicant: 清华大学

    Abstract: 本发明属于图像处理技术领域,特别涉及一种面向盲人的物体寻找系统及方法。本明的目的是为克服已有技术的不足之处,提出一种面向盲人的物体寻找系统及方法。本发明能够将目标检测技术、场景图生成技术与知识图谱技术结合起来,为盲人提供所需要寻找的物体的详细信息,包括其在视野中的相对位置及其在场景图中的相对位置,并在未找到目标时在知识图谱中主动查找相似的替代品,尽可能满足用户的真实需求。本发明从盲人用户的现实需求出发,解决寻找一类物品的问题,可以部署于盲人视觉辅助眼镜、服务机器人等诸多设备。

    一种反馈注意力增强的非模式图像分割方法及装置

    公开(公告)号:CN113516670A

    公开(公告)日:2021-10-19

    申请号:CN202110732029.9

    申请日:2021-06-29

    Applicant: 清华大学

    Abstract: 本公开提出一种反馈注意力增强的非模式图像分割方法及装置,属于图像识别技术领域。其中方法包括:获取真实环境的RGB图像;根据预设的非模式图像分割网络,对所述RGB图像进行多尺度预测,其中,所述预设的非模式图像分割网络输出图像中被识别对象可见部分和被遮挡部分的形状、边界和语义类别,以得到输入图像的非模式图像分割结果。本公开可克服以往由于物体之间相互遮挡导致的图像识别中对物体感知的不全面性,尽可能避免物体之间遮挡造成的识别和分割错误,增强其对周围环境的全面感知和理解。

    一种基于多模态融合深度学习的布匹缺陷检测方法

    公开(公告)号:CN111028204B

    公开(公告)日:2021-10-08

    申请号:CN201911130805.7

    申请日:2019-11-19

    Applicant: 清华大学

    Abstract: 本发明提出的一种基于多模态融合深度学习的布匹缺陷检测方法,首先利用触觉感知传感器与不同缺陷情况的布匹表面接触,采集各种缺陷情况的布匹纹理图像,利用摄像机采集相应的布匹外部图像,将相应的一张布匹外部图像与一张布匹纹理图像作为一组布匹检测数据;然后将特征提取网络和多模态融合网络连接构建基于多模态融合深度学习的分类模型,以采集的各组布匹检测数据中的布匹纹理图像和布匹外部图像作为输入,以布匹缺陷情况作为输出;利用采集的布匹检测数据对建立的分类模型进行训练;最后利用训练完毕的分类模型对布匹缺陷情况进行检测。本发明利用视觉和触觉两类互补的信息,可大幅提高检测的准确度和鲁棒性。

    一种咽拭子自动采样系统
    60.
    发明授权

    公开(公告)号:CN111631754B

    公开(公告)日:2021-07-09

    申请号:CN202010452755.0

    申请日:2020-05-26

    Applicant: 清华大学

    Abstract: 本发明提出的一种咽拭子自动采样系统,包括在工作平台上的待测人员身份信息自动核对及采集提示单元、待测人员头部定位单元、导航定位单元、样本采集执行单元和咽拭子自动装卸载单元,以及远程监控单元;导航定位单元跟随样本采集执行单元末端进入待测人员口腔,用于采集咽喉图像并确定深度传感器与待测人员咽喉之间的深度信息;样本采集执行单元包括三自由度的导轨式装置及一个自由度的末端执行机构;在咽拭子采集的过程中,各个单元的实时信息与远程监控单元通信,医护人员在远程安全房间通过电脑对被采集者及其各个单元进行实时监控,出现意外问题,及时的采取措施,以保证整个过程的安全性和有效性。本系统实现了咽拭子采集过程的全自动化。

Patent Agency Ranking