-
公开(公告)号:CN116993929A
公开(公告)日:2023-11-03
申请号:CN202311263345.1
申请日:2023-09-27
Applicant: 北京大学深圳研究生院
IPC: G06T17/00 , G06T15/20 , G06V40/18 , G06V10/774
Abstract: 本申请公开了一种基于人眼动态变化的三维人脸重建方法、装置及存储介质,方法包括:利用初始三维人脸模型确定的三维人脸来确定渲染图像;利用眼状态检测器确定闭眼概率,基于闭眼概率来对人眼关键点进行调整以得到调整后的训练图像;基于渲染图像、训练图像和调整后的训练图像确定的混合损失函数和动态损失函数训练初始三维人脸模型,以得到三维人脸模型;基于三维人脸模型生成重建三维人脸。本申请通过眼状态检测器捕捉的动态细节来确定闭眼概率,根据闭眼概率来对人眼关键点进行调整,通过在弱监督学习过程中引入利用调整后的人眼关键点的动态损失函数,解决了人脸局部区域三维重建的不一致性问题,提高了重建三维人脸的准确性。
-
公开(公告)号:CN105893967A
公开(公告)日:2016-08-24
申请号:CN201610201446.X
申请日:2016-04-01
Applicant: 北京大学深圳研究生院
IPC: G06K9/00
Abstract: 本发明涉及一种基于时序保留性时空特征的人体行为分类检测方法及系统,在由视频输入端、时序特征提取输出端和离线训练分类器构成的系统中,方法步骤为:1)在视频序列中检测人体目标;2)对包含人体目标的时空域提取时空兴趣点,并使用均值聚类方法将时空兴趣点聚类成K个类别;3)对于时空兴趣点对,统计时序保留性时空特征的时间轴分布特征;4)将时序特征和时空兴趣点词袋特征进行加权融合;5)利用词袋模型和分类器训练人体行为模板并进行分类。本发明通过描述相同类别特征点之间的时序关系来建立人体行为模型,能够很好地提升不同人体行为之间的区分度。
-
公开(公告)号:CN117456552A
公开(公告)日:2024-01-26
申请号:CN202311267861.1
申请日:2023-09-26
Applicant: 北京大学深圳研究生院
IPC: G06V40/10 , G06V10/40 , G06V10/774 , G06V10/80
Abstract: 本申请公开了一种基于人体姿态估计的人体解析方法及相关装置,所述方法包括获取待解析图像的人体关键点图;将所述人体关键点图和所述待解析图像输入经过训练的人体解析模型中的人体解析模块,通过人体解析模块提取人体解析特征图;将所述人体解析特征图输入所述人体解析模型中的像素解码器,通过所述像素解码器提取若干第一特征图;基于所述若干第一特征图以及所述人体解析模型中的Transformer解码器,确定所述待解析图像对应的人体部位分割图。本申请将人体姿态估计与人体解析相结合,将获取到的人体关键点图作为人体解析的先验知识,使得Transformer获知待解析图像中不同类型的人体关键点,提高了人体解析的准确性。
-
公开(公告)号:CN103854016B
公开(公告)日:2017-03-01
申请号:CN201410119629.8
申请日:2014-03-27
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种基于方向性共同发生特征的人体行为分类识别方法及系统。该方法包括:在视频序列中检测人体目标并提取时空兴趣点;提取HOG和HOF特征,对时空兴趣点聚类;统计具有不同类别标签的时空兴趣点对出现在相同帧时的方向信息;统计方向性时空点对特征直方图,得到针对输入视频的特征描述;将该词袋模型中的直方图特征换成方向性时空点对特征直方图,针对不同类别行为进行训练,得到对应的特征描述;提取得到输入的测试视频的特征描述,与不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。本发明通过描述局部特征点对之间的方向信息有效提升了人体行为分类和识别的准确率和鲁棒性。
-
公开(公告)号:CN117576787B
公开(公告)日:2024-04-16
申请号:CN202410060569.0
申请日:2024-01-16
Applicant: 北京大学深圳研究生院
Abstract: 本申请公开了一种基于主动跟踪和自适应手势识别的交接方法、装置及设备,方法包括通过机器人安装的深度相机采集视频图像;基于视频图像通过媒体管道获取相机坐标系下的第一手部地标;将第一手部地标转换至预设的世界坐标系以得到第二手部地标;将第二手部地标输入经过训练的手势识别模型,通过手势识别模型确定所述视频图像对应的用户手势;通过机器人将交互对象交互给用户。本申请实施例通过使用包括媒体管道提示手部地标和通过手势识别模型识别用户手势的两阶段方法,在面对不同物体和不同照明条件时均能准确识别到用户手势,提高了人机交互的准确性,确保了与人类抓握一致的平稳和自然的交接过程。
-
公开(公告)号:CN117576787A
公开(公告)日:2024-02-20
申请号:CN202410060569.0
申请日:2024-01-16
Applicant: 北京大学深圳研究生院
Abstract: 本申请公开了一种基于主动跟踪和自适应手势识别的交接方法、装置及设备,方法包括通过机器人安装的深度相机采集视频图像;基于视频图像通过媒体管道获取相机坐标系下的第一手部地标;将第一手部地标转换至预设的世界坐标系以得到第二手部地标;将第二手部地标输入经过训练的手势识别模型,通过手势识别模型确定所述视频图像对应的用户手势;通过机器人将交互对象交互给用户。本申请实施例通过使用包括媒体管道提示手部地标和通过手势识别模型识别用户手势的两阶段方法,在面对不同物体和不同照明条件时均能准确识别到用户手势,提高了人机交互的准确性,确保了与人类抓握一致的平稳和自然的交接过程。
-
公开(公告)号:CN117576786A
公开(公告)日:2024-02-20
申请号:CN202410059351.3
申请日:2024-01-16
Applicant: 北京大学深圳研究生院
Abstract: 本申请公开了一种基于视觉语言模型的三维人体行为识别网络训练方法,方法包括将点云视频输入四维点云编码器确定点云特征嵌入;将RGB视频和文本数据输入视觉语言模型确定视频特征嵌入和文本特征嵌入;基于点云特征嵌入、文本特征嵌入及视频特征嵌入确定对齐损失项,基于点云特征嵌入确定第一分类损失项,基于视频特征嵌入确定第二分类损失项;基于对齐损失项、第一分类损失项和第二分类损失项对初始三维人体行为识别网络进行训练,以得到三维人体行为识别网络。本申请通过将点云特征嵌入分别与视频特征嵌入和文本特征嵌入对齐,来从大规模图像-文本对的训练中学习共享的视觉和文本空间,提高了三维人体行为识别网络的模型性能。
-
公开(公告)号:CN116993929B
公开(公告)日:2024-01-16
申请号:CN202311263345.1
申请日:2023-09-27
Applicant: 北京大学深圳研究生院
IPC: G06T17/00 , G06T15/20 , G06V40/18 , G06V10/774
Abstract: 本申请公开了一种基于人眼动态变化的三维人脸重建方法、装置及存储介质,方法包括:利用初始三维人脸模型确定的三维人脸来确定渲染图像;利用眼状态检测器确定闭眼概率,基于闭眼概率来对人眼关键点进行调整以得到调整后的训练图像;基于渲染图像、训练图像和调整后的训练图像确定的混合损失函数和动态损失函数训练初始三维人脸模型,以得到三维人脸模型;基于三维人脸模型生成重建三维人脸。本申请通过眼状态检测器捕捉的动态细节来确定闭眼概率,根据闭眼概率来对人眼关键点进行调整,通过在弱监督学习过程中引入利用调整后的人眼关键点的动态损失函数,解决了人脸局部区域三维重建的不一致性问题,提高了重建三维人(56)对比文件Jingxiang Sun et al.Next3D:Generative Neural Texture Rasterizationfor 3D-Aware Head Avatars.arxiv.2023,第1-12页.
-
公开(公告)号:CN103886319A
公开(公告)日:2014-06-25
申请号:CN201410111626.X
申请日:2014-03-24
Applicant: 北京大学深圳研究生院
IPC: G06K9/54
Abstract: 本发明公开了一种基于机器视觉的举牌智能识别方法。本方法为:1)将每一类别的选票保存为一模板图像;2)对采集的包含选票文本的场景图像进行去噪处理;所述场景图像之间不重叠;3)从去噪处理后的场景图像中提取包含多个选票信息的文本候选区域的二值图像;4)对所述文本候选区域的二值图像进行分割,得到只包含单个选票的矩形候选区域图像块;5)将所述候选区域图像块与每一所述模板图像进行匹配,得到每一候选区域图像块对应的选票类别。本发明能在复杂场景和可变光照条件下,对大规模群众举牌方式投票达到90%以上的票数检测率和100%对于不同票的识别率,处理时间快。
-
公开(公告)号:CN103854016A
公开(公告)日:2014-06-11
申请号:CN201410119629.8
申请日:2014-03-27
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及一种基于方向性共同发生特征的人体行为分类识别方法及系统。该方法包括:在视频序列中检测人体目标并提取时空兴趣点;提取HOG和HOF特征,对时空兴趣点聚类;统计具有不同类别标签的时空兴趣点对出现在相同帧时的方向信息;统计方向性时空点对特征直方图,得到针对输入视频的特征描述;将该词袋模型中的直方图特征换成方向性时空点对特征直方图,针对不同类别行为进行训练,得到对应的特征描述;提取得到输入的测试视频的特征描述,与不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。本发明通过描述局部特征点对之间的方向信息有效提升了人体行为分类和识别的准确率和鲁棒性。
-
-
-
-
-
-
-
-
-