-
公开(公告)号:CN111126199B
公开(公告)日:2023-05-30
申请号:CN201911268281.8
申请日:2019-12-11
Applicant: 复旦大学
IPC: G06F18/213 , G06F18/214 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/084
-
公开(公告)号:CN111105068B
公开(公告)日:2023-05-02
申请号:CN201911057053.6
申请日:2019-11-01
Applicant: 复旦大学
IPC: G06F30/27 , G06F18/2113 , G06F18/15 , G06N3/0455 , G06N3/048 , G06N3/0464 , G06N3/08 , G06F17/18
Abstract: 本发明属于机器学习与气象预测技术领域,具体为一种基于序回归学习的数值模式降水订正方法。本发明包括:针对数值模式的气象特征进行特征选择,利用气象特征和地面观测降水值之间的相关性选取有效特征;根据地面观测站的经纬度将全球数据进行区域切分,产生多个更小的空间范围,然后将该空间范围内的特征进行正则化处理;将正则化后的特征放入自编码器中训练,得到去除噪声的混合特征;最后,通过降水概率预测网络和序回归分布预测网络得到降水置信度和序回归分布,将两者融合生成最后订正后的降水值。本发明可以很好地提取降水值这种有序的离散连续值的特征,使得模型能好的学习到数值模式中降水预测的误差,从而达到更好的订正效果。
-
公开(公告)号:CN109583298B
公开(公告)日:2023-05-02
申请号:CN201811255446.3
申请日:2018-10-26
Applicant: 复旦大学
IPC: G06V40/20 , G06V10/82 , G06N3/0464
Abstract: 本发明属于计算机视觉和机器学习技术领域,具体为一种基于集合的跨视角步态识别方法。本方法可以使用很少的帧数得到较高的识别结果,并能融合同一个人不同角度、不同衣着配饰的帧从中抽取鲁棒的身份信息。对于一个行人,用其所有视频中的所有帧组成一个集合;将这些帧做预处理,对每帧提出轮廓图并对齐;然后用神经网络对集合中的每一帧分别提取高层语义特征;接着融合每一帧的语义特征得到整个集合的语义特征;最后将集合的语义特征映射进一个具有判别力的空间用于身份识别。相较于基于目前主流的基于模板的步态识别方法和近年发展出的基于视频的步态识别方法,本方法在解决现实问题中使用更加灵活,能充分利用所有信息,并取得最优的识别效果。
-
公开(公告)号:CN113538257B
公开(公告)日:2022-07-22
申请号:CN202110657818.0
申请日:2021-06-15
Applicant: 复旦大学
Abstract: 本发明属于医学影像分析技术领域,具体为一种基于双域U‑net判别器的生成对抗低剂量CT去噪方法。本发明以U‑Net判别器来学习正常剂量图像和生成图像在图像域和生成域之间的全局和局部差异;该判别器通过全局输出向去噪网络提供逐像素反馈,通过中间层在语义层面使去噪网络关注全局结构;图像梯度域中应用该判别器,以减轻低剂量CT中的伪影,增强去噪CT图像的边缘;使用CutMix技术使判别器逐像素输出,为放射科医生提供置信度图,以避免可视化去噪结果的不确定性,促进低剂量CT的筛查和诊断;本发明可有效提高去噪低剂量CT的质量,使生成的图像清晰度更高,具有更丰富的边缘并减小伪影的影响,提高医学影像分析过程中的准确度。
-
公开(公告)号:CN112215393B
公开(公告)日:2022-06-21
申请号:CN202010890673.4
申请日:2020-08-29
Abstract: 本发明属于气象降水数值预报技术领域,具体为基于自适应时空尺度选择的降水数值预报后处理订正方法。本发明方法针对降水数值预报订正任务设计自适应策略;具体步骤包括:构建基于可形变卷积神经网络的空间尺度自适应选择模块,以及与其对应的空间编码器,用于提取每个站点降水的最优空间特征;构建基于三维卷积神经网络的时间尺度自适应选择模块,以及与其对应的时间编码器,用于提取每个站点降水的最优时空特征;同时引入一个有雨/无雨二分类器和一个序回归模型,用于分类降水和回归降水;两者的向量乘积结果,即为订正后的降水值。定性定量实验证明,本发明可大大提升降水订正模型的订正准确率。
-
公开(公告)号:CN109583298A
公开(公告)日:2019-04-05
申请号:CN201811255446.3
申请日:2018-10-26
Applicant: 复旦大学
Abstract: 本发明属于计算机视觉和机器学习技术领域,具体为一种基于集合的跨视角步态识别方法。本方法可以使用很少的帧数得到较高的识别结果,并能融合同一个人不同角度、不同衣着配饰的帧从中抽取鲁棒的身份信息。对于一个行人,用其所有视频中的所有帧组成一个集合;将这些帧做预处理,对每帧提出轮廓图并对齐;然后用神经网络对集合中的每一帧分别提取高层语义特征;接着融合每一帧的语义特征得到整个集合的语义特征;最后将集合的语义特征映射进一个具有判别力的空间用于身份识别。相较于基于目前主流的基于模板的步态识别方法和近年发展出的基于视频的步态识别方法,本方法在解决现实问题中使用更加灵活,能充分利用所有信息,并取得最优的识别效果。
-
公开(公告)号:CN109543695A
公开(公告)日:2019-03-29
申请号:CN201811255311.7
申请日:2018-10-26
Applicant: 复旦大学
Abstract: 本发明属于计算机视觉及智能交通技术领域,具体为一种基于多尺度深度学习的泛密度人群计数方法,称为PaDNet。本发明使用多个子网络去学习特定的人群尺度特征,首先对数据集进行聚类,将数据集划分为多种密度等级:低密度数据集、中密度数据集、高密度数据集;用特定密度等级的数据去预训练特定的子网络,然后通过一个尺度增强网络来加强尺度特征;最后,将所有的尺度特征通过一个融合网络融合起来生成最终的密度图来进行计数。本发明可以使得特定的子网络学习到准确的尺度特征,进而不同的网络能识别不同密度等级人群特征,更加准确的进行人群计数。
-
公开(公告)号:CN105608440A
公开(公告)日:2016-05-25
申请号:CN201610002456.0
申请日:2016-01-03
Applicant: 复旦大学
IPC: G06K9/00
CPC classification number: G06K9/00308 , G06K9/00268 , G06K9/00288
Abstract: 本发明属于计算机视觉技术领域,具体为一种基于最小化误差的面部微表情序列特征抽取方法。本发明首先把微表情序列分割为较小的时空块,在每个时空块中以最小误差为原则寻找一个两维的主方向向量;然后将所有分块中的主方向拼接,得到两倍于分块数量维度的向量,以此表达整个微表情序列。本方法规避了传统算法中对统一帧数的要求,因此不必引入插值算法;同时,本方法的提取速度非常快,为实时高精度微表情检测提供了可能。
-
公开(公告)号:CN118447576B
公开(公告)日:2025-05-16
申请号:CN202410595928.2
申请日:2024-05-14
Abstract: 本发明涉及一种基于骨架时空联合特征交互增强的跨视角步态识别方法,包括骨架数据预处理、全局时空特征提取网络构建、微时空联合特征提取网络构建、分层特征交互增强融合模块构建、整体框架训练及跨视角步态识别。本发明全局时空特征提取网络,将基于自注意力邻接矩阵的图卷积与大核时间卷积相结合,动态建模关键点间的全局空间关系和长程时间关系。本发明微时空联合特征提取网络,将几帧骨架图聚合为一个时空图,通过时空联合图卷积捕捉关键点间微小的短程动态特征。本发明分层特征交互增强融合模块,在归纳出信息量更大的互补特征的同时避免了对原始分支的负面影响。
-
公开(公告)号:CN111062410B
公开(公告)日:2023-05-30
申请号:CN201911067670.4
申请日:2019-11-05
Applicant: 复旦大学
IPC: G06F18/241 , G06N3/0455 , G06N3/0442 , G06F18/214 , G06N3/0464 , G01W1/10 , G01S13/95 , G01S7/41
-
-
-
-
-
-
-
-
-