-
公开(公告)号:CN112733714B
公开(公告)日:2024-03-01
申请号:CN202110028647.5
申请日:2021-01-11
Applicant: 北京大学
Abstract: 本发明公布了一种基于VGG网络的自动人群计数图像识别方法,利用VGG网络模型对图像进行嵌入式层归一化处理,基于VGG网络嵌入式层归一化进行人群计数图像识别,所述自动人群计数图像识别方法命名为VadaLN;包括:建立基于VGG网络模型的嵌入式层归一化网络模型VadaLNet;采用尺度重组网络模块SSM用于进行人群计数,使用散度马尔可夫随机场损失函数DivMRF对人群计数任务建模,并通过对抗式上下文损失函数ACL建立非对齐优化方法,实现密度图估计的非一致训练,优化VadaLNet的参数。本发明方法对输入的包含人群的图像进行识别和人群计数,过滤与计数任务无关的图像特征,即得到VadaLN值,实现基于VGG网络的自动人群计数图像识别。
-
公开(公告)号:CN106973221A
公开(公告)日:2017-07-21
申请号:CN201710103042.1
申请日:2017-02-24
Applicant: 北京大学
Abstract: 本发明的目的是提供一种基于美学评价的无人机摄像方法和系统,所述无人机具有摄像机,所述方法包括以下步骤:控制所述无人机飞行到指定区域;使所述摄像机朝向被拍摄主体以便将所述主体置于所述摄像机的视场内;利用所述摄像机拍摄所述主体的图像;基于美学评价算法来计算所述图像的美学评分;基于所述美学评分来调整所述无人机的姿态;迭代进行所述拍摄、计算和调整的步骤,直到得到最优美学评分;以及将所述最优美学评分所对应的摄像机视角作为最优视角,在所述最优视角下利用所述摄像机对所述主体进行拍摄。
-
公开(公告)号:CN100535943C
公开(公告)日:2009-09-02
申请号:CN200710123089.0
申请日:2007-06-29
Applicant: 北京大学
Abstract: 本发明属于计算机图形学领域,涉及一种用于视觉凸壳绘制的高光亮斑消除方法及其装置。该方法借助视觉凸壳绘制中的图像采集装置标定信息及图像序列的冗余信息,消除图像中的高光亮斑,最终得到无高光的图像序列。该方法的主要步骤包括:提取高光亮斑子图像;在其他参考图像中寻找对应子图像;对高光亮斑子图像进行重采样。进一步还对重采样后的子图像进行无缝化处理。本发明还提供了相应的硬件装置。本发明的优点在于利用了视觉凸壳绘制中提供的信息,计算简便高效,并且对输入图像序列没有特殊要求。去除高光后的图像序列可直接应用于视觉凸壳的绘制过程中,得到高真实感的无高光合成图像。
-
公开(公告)号:CN111612010B
公开(公告)日:2024-07-16
申请号:CN202010438187.9
申请日:2020-05-21
Applicant: 京东方科技集团股份有限公司 , 北京大学
IPC: G06V10/764 , G06V10/44 , G06V10/26 , G06V20/70 , G06V10/82 , G06F40/30 , G06N3/0464 , G06N3/044 , G06N3/0455 , G06N3/088 , G06N3/048
Abstract: 本公开提供了一种图像处理方法、装置、设备以及计算机可读存储介质。该方法包括:获取图像数据集,所述图像数据集包含图像以及与所述图像中的未知类别有关的伴随文本;利用未知类别获取模型生成未知类别的概率和/或分布,所述未知类别的概率和/或分布包括所述图像中每个像素来自所述未知类别的概率、所述未知类别存在于所述图像中的概率、以及将图像细分为多个区域后的分区概率。通过上述方法,可以节省大量的人工费用和时间。
-
公开(公告)号:CN114550161A
公开(公告)日:2022-05-27
申请号:CN202210066907.2
申请日:2022-01-20
Applicant: 北京大学
IPC: G06V20/64 , G06V10/40 , G06K9/62 , G06V10/764 , G06V10/774
Abstract: 本发明公开了一种端到端的三维目标稀疏检测方法,其步骤包括:将点云样本输入三维目标检测网络,得到点云样本的目标预测结果;利用损失函数计算模块计算目标预测结果与其对应的真实目标对之间损失值,通过降低损失函数的值对三维目标检测网络进行优化;三维目标检测网络包括体素化模块、三维特征提取模块、折叠到鸟瞰视角模块、特征对齐模块、稀疏检测模块;将待检测的点云场景输入训练优化后的三维目标检测网络,得到该待测点云场景中的目标预测结果。本发明通过维护一组少量的可学习候选来表示潜在的候选对象,并通过稀疏检测模块直接对3D对象进行分类和定位;不需要依赖任何预定义的锚和中间表示来辅助检测,不需要非极大值抑制等后处理。
-
公开(公告)号:CN112733714A
公开(公告)日:2021-04-30
申请号:CN202110028647.5
申请日:2021-01-11
Applicant: 北京大学
Abstract: 本发明公布了一种基于VGG网络的自动人群计数图像识别方法,利用VGG网络模型对图像进行嵌入式层归一化处理,基于VGG网络嵌入式层归一化进行人群计数图像识别,所述自动人群计数图像识别方法命名为VadaLN;包括:建立基于VGG网络模型的嵌入式层归一化网络模型VadaLNet;采用尺度重组网络模块SSM用于进行人群计数,使用散度马尔可夫随机场损失函数DivMRF对人群计数任务建模,并通过对抗式上下文损失函数ACL建立非对齐优化方法,实现密度图估计的非一致训练,优化VadaLNet的参数。本发明方法对输入的包含人群的图像进行识别和人群计数,过滤与计数任务无关的图像特征,即得到VadaLN值,实现基于VGG网络的自动人群计数图像识别。
-
公开(公告)号:CN111612010A
公开(公告)日:2020-09-01
申请号:CN202010438187.9
申请日:2020-05-21
Applicant: 京东方科技集团股份有限公司 , 北京大学
Abstract: 本公开提供了一种图像处理方法、装置、设备以及计算机可读存储介质。该方法包括:获取图像数据集,所述图像数据集包含图像以及与所述图像中的未知类别有关的伴随文本;利用未知类别获取模型生成未知类别的概率和/或分布,所述未知类别的概率和/或分布包括所述图像中每个像素来自所述未知类别的概率、所述未知类别存在于所述图像中的概率、以及将图像细分为多个区域后的分区概率。通过上述方法,可以节省大量的人工费用和时间。
-
公开(公告)号:CN106157094A
公开(公告)日:2016-11-23
申请号:CN201610526347.9
申请日:2016-07-06
Applicant: 深圳合梦科技有限公司 , 北京大学
CPC classification number: G06Q30/0271 , G06T17/00
Abstract: 本发明公开了一种基于自动测量的适体文胸推荐方法。本方法为:1)获取每款待推荐文胸的三维扫描模型;2)在每一个三维扫描模型上标注若干标记点;根据标定的标记信息,拟合出每一款文胸的设定曲线或曲面,并计算设定重要参数的参数值;3)根据每款文胸的重要参数的参数值及其描述特征,建立每款文胸的特征描述向量;4)文胸推荐系统根据用户输入的用户信息为该用户创建一用户需求向量,然后将该用户需求向量分别与每款文胸的特征描述向量进行误差距离计算,然后选出误差距离最小的前若干款文胸推荐给该用户。本发明推荐更加准确有效、且具有个性化。
-
公开(公告)号:CN101067871A
公开(公告)日:2007-11-07
申请号:CN200710123090.3
申请日:2007-06-29
Applicant: 北京大学
Abstract: 本发明属于计算机图形学领域,涉及一种用于视觉凸壳绘制的高光区域选取的方法及其装置。针对视觉凸壳绘制过程中图像高光区域选取方法的不足,本发明提出了一种高光区域识别提取方法。它能够自动判别图像中的高光亮斑并进行归类,最终得到一系列包围高光区域的矩形子图像。该方法主要分为以下三个步骤:识别图像中的高光种子点;对高光部位进行填充;提取高光亮斑子图像。本发明进一步提供了相应的硬件装置。本发明的优点在于对输入图像没有特殊的要求,对各种材质的物体均可适用;高光的识别、提取是全自动的;计算简便,可以快速地提取出包含高光亮斑的子图像,为视觉凸壳绘制中的高光消除计算提供条件。
-
公开(公告)号:CN114550161B
公开(公告)日:2024-08-09
申请号:CN202210066907.2
申请日:2022-01-20
Applicant: 北京大学
IPC: G06V20/64 , G06V10/40 , G06V10/764 , G06V10/774
Abstract: 本发明公开了一种端到端的三维目标稀疏检测方法,其步骤包括:将点云样本输入三维目标检测网络,得到点云样本的目标预测结果;利用损失函数计算模块计算目标预测结果与其对应的真实目标对之间损失值,通过降低损失函数的值对三维目标检测网络进行优化;三维目标检测网络包括体素化模块、三维特征提取模块、折叠到鸟瞰视角模块、特征对齐模块、稀疏检测模块;将待检测的点云场景输入训练优化后的三维目标检测网络,得到该待测点云场景中的目标预测结果。本发明通过维护一组少量的可学习候选来表示潜在的候选对象,并通过稀疏检测模块直接对3D对象进行分类和定位;不需要依赖任何预定义的锚和中间表示来辅助检测,不需要非极大值抑制等后处理。
-
-
-
-
-
-
-
-
-