-
公开(公告)号:CN101853505A
公开(公告)日:2010-10-06
申请号:CN201010175132.X
申请日:2010-05-13
Applicant: 复旦大学
Abstract: 本发明属于图像处理技术领域,是一种快速的前景提取方法。具体为求解输入图像未知像素α值的一种方法。本发明定义并充分利用相邻像素α值所存在的内在关系来实现前景提取的目标。其步骤为:输入原图像和对应的trimap,确定前景样本点、背景样本点和未知像素,选择一个未知像素,计算该未知像素的每个前景背景样本对的置信度,选择置信度最高的前景背景样本对计算得到初步的α值,根据内在关系,计算得到未知像素的最终α值。用本方法进行前景提取可以达到前人方法相似的效果,但速度可平均提高25倍。
-
公开(公告)号:CN101853377A
公开(公告)日:2010-10-06
申请号:CN201010176193.8
申请日:2010-05-13
Applicant: 复旦大学
Abstract: 本发明属于视频处理技术领域,具体为一种对数字视频进行内容识别的方法。主要包括关键帧抽取,视频拷贝检测和视频帧内容识别三个模块。其中视频拷贝检测模块采用基于局部排序的视频拷贝检测方法,保证以一定的概率快速得到相似帧,提高检测性能。视频帧内容识别模块采用色情图像识别算法,该算法包括四个弱分类器(皮肤区域比例分类器、人脸个数分类器、不变矩分类器、皮肤区域分布分类器),四个弱分类器再综合组成一个强分类器,强分类器的结果即是最终的检测结果,从而有效地降低了误识别率和不识别率。该方法对互联网数字视频信息监管具有广泛的应用价值。
-
-
公开(公告)号:CN114928714B
公开(公告)日:2024-10-18
申请号:CN202210357221.9
申请日:2022-04-06
Applicant: 复旦大学 , 北京航空航天大学杭州创新研究院
IPC: H04N7/18 , H04N5/76 , G01S7/41 , G06F16/78 , G06F16/783 , G06F16/787 , G06F18/2321 , G06T7/277 , G06V10/62 , G06V10/74 , G06V10/94 , G06V20/40 , G06V20/52
Abstract: 本发明公开了一种基于边缘计算和多传感器联合的安防监控系统及工作方法。该系统包括边缘节点模块、后端存储管理模块和前端可视化模块三部分;边缘节点模块由多个相互间通信的监控节点构成;每个监控节点包括若干毫米波雷达、一台监控云台和一台边缘计算设备;该系统在有限资源和节点带宽环境下,通过将目标检测、目标追踪任务下沉到边缘节点,缓解云端服务器的计算压力,过滤毫米波雷达噪声和冗余视频帧数据,降低云端服务器的带宽负载。本发明可有效解决传统监控系统计算压力大、带宽负载高等问题。
-
公开(公告)号:CN118691460A
公开(公告)日:2024-09-24
申请号:CN202410774655.8
申请日:2024-06-17
Applicant: 复旦大学 , 中国科学院信息工程研究所
IPC: G06T3/04 , G06V30/19 , G06N3/045 , G06N3/0475 , G06N3/094 , G06N3/0985 , G06V10/82
Abstract: 本发明属于图像生成技术领域,具体为一种基于扩散模型的书法字型图像生成方法;该方法将书法生成图像作为无条件分类器扩散过程,使用CGGAN网络提取多张目标风格图像的风格特征,采用风格特征融合模块SFF进行特征融合得到更具代表性的特征,作为条件来引导字型生成模型Fontdiffuser生成目标风格以及内容的书法字型。在训练过程中CGGAN和扩散模型一同训练,采用无分类引导方式。实验证实了本发明在书法家真迹图像上超越了现有公开技术方法,并且生成图像具有更好的美观性。
-
公开(公告)号:CN118365733A
公开(公告)日:2024-07-19
申请号:CN202410542524.7
申请日:2024-04-30
Applicant: 复旦大学
Abstract: 本发明公开了一种基于扩散模型的对象驱动人物图像生成方法;该方法将生成图像的过程分为三个连续的阶段,即语义场景构建、主体‑场景融合和主体增强。第一和第三阶段分别由文本扩散模型TDM和主体扩散模型SDM单独执行,而第二阶段通过显著性自适应噪声融合SNF机制完成,在每个生成的时间步骤中,SNF通过每个预训练模型的无分类器引导的响应来利用他们各自的优势,以显著性感知的方式自适应地对来自两个模型预测的噪声在空间上进行融合,从而实现两个模型的协作生成。本发明通过预训练模型之间协作生成的方式,消除了训练不平衡和质量妥协问题,大量实验证实了本发明在生成高保真人物图像上超越了现有的公开技术方法。
-
公开(公告)号:CN118053003A
公开(公告)日:2024-05-17
申请号:CN202410152356.0
申请日:2024-02-03
Applicant: 复旦大学 , 上海兑观信息科技技术有限公司
Abstract: 本发明公开了一种基于多颜色空间的图像上色方法;该方法包括:利用编码器对灰度图像进行特征提取,获取不同尺度的图像特征;颜色空间建模,初始化颜色查询向量并将其与多尺度图像特征输入基于Tramsformer的解码器中,对颜色查询向量进行细化调整;将细化后的颜色查询向量与最大尺度图像特征输入颜色映射模块中,获取到单颜色空间下灰度图像对应的颜色通道;重复多次颜色空间的建模操作,获取到多颜色空间下灰度图像对应的颜色通道;将灰度图像以及多颜色空间对应的颜色通道输入颜色空间互补网络中,最后得到RGB彩色图像。本发明通过更全面地考虑图像中的颜色信息,并通过更精细的颜色建模提高了上色效果的质量。
-
公开(公告)号:CN111738096B
公开(公告)日:2022-08-19
申请号:CN202010471069.8
申请日:2020-05-28
Applicant: 复旦大学
Abstract: 本发明公开了一种基于骨架姿态的人物跟踪方法。本发明分为离线训练阶段、在线姿态识别阶段和在线跟踪阶段。离线训练阶段,先准备模型训练集,将OpenPose格式的骨架关键点坐标经过归一化后作为模型输入,再对模型进行训练。在线姿态识别阶段,将含有待跟踪人物的图像输入模型,提取出图像中所有人物的骨架。在线跟踪阶段,先将图像中的人物骨架依次输入训练好的模型得到骨架姿态特征,再求出图像中每个人物骨架姿态特征与在库特征之间的欧式距离矩阵,用匈牙利算法求出每个人物特征匹配的id作为跟踪结果,最后更新在库id。本发明能够基于骨架姿态进行人物跟踪,扩展了人物跟踪的方法,在智能视频监控领域有广阔的应用可能。
-
公开(公告)号:CN114821099A
公开(公告)日:2022-07-29
申请号:CN202210370621.3
申请日:2022-04-10
IPC: G06V10/44 , G06V10/82 , G06V10/766 , G06V40/10 , G06N3/04
Abstract: 本发明属于计算机视觉领域,具体涉及一种基于Transformer的多视角3D姿态估计系统。该系统按照处理流程先后顺序分为单视角时空Transformer特征提取模块和多视角Transformer特征交换模块两个部分。单视角时空Transformer特征提取模块对输入的多视角姿态序列提取不同视角的时空域特征信息;多视角Transformer特征交换模块,将不同视角的时空域特征信息两两交换,然后经过回归头输出最终的3D姿态估计结果。本发明能充分利用姿态序列间的时间上下文和空间关系,在不同视角间充分进行特征交换和传输,提高了3D姿态估计结果的准确度。
-
公开(公告)号:CN113159171B
公开(公告)日:2022-07-22
申请号:CN202110423483.6
申请日:2021-04-20
Applicant: 复旦大学
Abstract: 本发明属于图像分类技术领域,具体为一种基于对抗学习的植物叶片图像细分类方法。本发明通过将植物叶片图像多次分割打乱之后作为样本训练植物叶片图像细分类模型;最后将植物叶片图像经过同样的多重打乱操作之后输入到训练好的网络模型,计算并输出植物图片的细分类结果。相比于现有的植物细分类方法,本发明所提出的方法可以提取图片的多个粒度的特征,另外引入的全局上下文块可以融合图像的全局和局部特征,提高了网络融合多个粒度的特征的能力。
-
-
-
-
-
-
-
-
-