-
公开(公告)号:CN109360156B
公开(公告)日:2020-08-28
申请号:CN201810938304.0
申请日:2018-08-17
Applicant: 上海交通大学
Abstract: 本发明提供了一种基于生成对抗网络的图像分块的单张图像去雨方法,通过将图像划分成互不重叠的大小相同的图像块,将每个图像块作为条件生成对抗网络的输入,降低输入的维度;一个生成对抗网络被训练用来实现有雨图像块到无雨图像块的非线性映射,有效克服了许多细节部分被忽略的问题,并且可以尽可能地在每个尺度上去除雨线;为了更好地维持去雨图像块之间的结构、颜色等方面的一致性,引用了双边滤波器和非均值局部去噪算法,构建了新的误差函数,添加至条件生成对抗网络的总的误差函数中。本发明不需要任何先验知识,也不需要对图像进行预处理和后处理,保证了整个结构的完整性。在测试集上的结果显示本发明先比经典算法提高了4~7dB。
-
公开(公告)号:CN108765394A
公开(公告)日:2018-11-06
申请号:CN201810487252.X
申请日:2018-05-21
Applicant: 上海交通大学
IPC: G06T7/00
CPC classification number: G06T7/0002 , G06T2207/10016 , G06T2207/20081 , G06T2207/30168
Abstract: 本发明提供了一种基于质量评价的目标识别方法,包括:构建目标识别模型,所述目标识别模型包括:质量评价网络、特征提取网络、特征聚合网络,其中,所述目标识别模型用于从视频中提取出目标特征,以表征目标的整体结构信息和局部信息;对所述目标识别模型进行训练,在训练过程中调整质量评价网络和特征提取网络的参数,以使所述目标识别模型输出符合预设要求的目标特征;通过训练好的目标识别模型对视频进行目标识别。从而解决了视频序列中外观多变及图像质量参差不齐导致的目标识别问题,在质量评价中增加了帧间的关联信息,从而获得更多的有效目标信息,使得目标的表征更加准确,提升了识别精度。
-
公开(公告)号:CN108764085A
公开(公告)日:2018-11-06
申请号:CN201810476256.8
申请日:2018-05-17
Applicant: 上海交通大学
CPC classification number: G06K9/00778 , G06K9/6256 , G06T7/0002 , G06T2207/30242
Abstract: 本发明提供了一种基于生成对抗网络的人群计数方法,包括:构建生成对抗网络,所述生成对抗网络包括:生成器和判别器;所述生成器用于根据输入的人群图像生成对应的人群密度图像;所述判别器用于在所述生成对抗网络的训练阶段,判别所述生成器生成的人群密度图像的真伪;对所述生成对抗网络进行跨尺度一致性训练,得到训练后的生成对抗网络;将待统计的人群图像作为所述训练后的生成对抗网络的输入,得到目标人群密度图像,并统计所述目标人群密度图像中的人数。本发明中的方法对于监控场景的人群数量统计很有效,对复杂多变的背景以及高密度的人群都具有很好的鲁棒性。
-
公开(公告)号:CN119399492A
公开(公告)日:2025-02-07
申请号:CN202411392648.8
申请日:2024-10-08
Applicant: 上海交通大学
IPC: G06V10/52 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 一种基于多子空间联合的人工智能识别模型对抗防御方法,通过输入样本在模型的各节点、各层的激活值向量映射到不同子空间一致性表现,即特征嵌入子空间的一致性判别是否为对抗样本;对甄别后的非攻击样本进行多尺度变化,并比较其各个尺度在模型传输的各个节点值的分布一致性表现,即尺度空间的一致性判别是否为对抗样本;对进一步甄别后的非攻击样本的原始像素或神经网络某层输出值进行子空间谱分解,并比较其在各谱分量的响应系数统计上应具备一致性,即谱空间一致性判别是否为对抗样本,实现全谱系防御。本发明基于多不相干空间分析,使得信息互补,极大提升针对攻击样本的防御能力,实现全谱系防御。
-
公开(公告)号:CN117138244A
公开(公告)日:2023-12-01
申请号:CN202311192741.X
申请日:2023-09-15
Applicant: 上海交通大学
Abstract: 一种自适应近弱视治疗仪,包括:依次对称设置的一对光学透镜组、遮挡组件、激光组件、光学感知组件以及分别与遮挡组件、激光组件和光学感知组件相连的控制模块,其中:控制模块根据光学感知组件采集的图像进行照射区域计算并分别输出控制指令至遮挡组件和激光组件以控制光照强度、频率、照射角度和照射区域。本发明通过图像识别技术,计算出所需的激光照射的光强、光频以及照射区域,从而自适应调节光照强度、频率、照射角度和照射区域的同时排除黄斑区域。
-
公开(公告)号:CN117037252A
公开(公告)日:2023-11-10
申请号:CN202311017484.6
申请日:2023-08-14
Applicant: 上海交通大学
IPC: G06V40/16 , G06V10/26 , G06V10/774 , G06V20/40 , G06T5/00 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 一种基于运动模拟的高清视频人脸细节增强训练系统及方法,包括:人脸检测模块、人脸分割模块和视频人脸增强模块,其中:人脸检测模块对输入的视频帧进行人脸规范化和裁剪处理,人脸分割模块从裁剪后的图像中进行人脸mask检测,视频人脸增强模块经视频运动模拟增广训练后,对检测到的低细节人脸视频帧进行增强处理,得到高清修复的人脸帧。本发明不借助任何时序模块,基于运动模拟增广训练实现高质量的人脸恢复及增强,得到稳定且高质量的视频人脸处理效果。
-
公开(公告)号:CN116597072A
公开(公告)日:2023-08-15
申请号:CN202310359969.7
申请日:2023-04-06
Applicant: 上海交通大学
Inventor: 倪冰冰
Abstract: 一种基于3D视网膜近视离焦面的角膜塑形镜优化方法及系统,根据前后节光学相干断层成像术(OCT)图像、角膜检测数据、生理参数及角膜塑形镜参数,经多模态特征提取选择融合算法得到多模态数据融合特征,通过基于特征交互函数算子的多尺度图像预测网络得到佩戴角膜塑形镜后的角膜地形图及后节视网膜OCT图像;再通过几何光学的光线追踪和采样得到穿过角膜的光线的行进路线,与后节视网膜OCT图像共同进行三维重建后得到3D离焦曲面,通过对3D离焦曲面进行参数调整量修正,得到优化角膜塑形镜制造参数。本发明通过角膜地形图、光学相干断层扫描以及其他数据进行多模态特征提取选择融合的深度学习算法进行最佳参数预测。
-
公开(公告)号:CN108846328B
公开(公告)日:2020-10-16
申请号:CN201810527769.7
申请日:2018-05-29
Applicant: 上海交通大学
Abstract: 本发明提出了一种基于几何正则化约束的车道检测方法,包括:步骤S1,针对输入驾驶场景图像进行特征提取,得到初步车道检测和车道线检测结果;步骤S2,对初步车道检测和车道线检测结果进行交叉比较,修正检测误差区域并输出最终车道检测结果。步骤S3,通过基于结构信息的损失函数与交叉熵损失结合,对检测结果进行优化,并训练网络。本发明是一种高效高精度的可行驶区域分割方法,在现有车道检测模型上,通过引入交通场景中道路固有的几何信息作为约束,有效排除环境干扰,并提高车道检测的准确性。本发明不需要对图像进行预处理与后处理,实现端到端的车道检测。实验结果显示,相较于经典检测方法,本发明在检测准确度上有较大提升。
-
公开(公告)号:CN108986067B
公开(公告)日:2020-08-14
申请号:CN201810512988.8
申请日:2018-05-25
Applicant: 上海交通大学
Abstract: 本发明提供了一种基于跨模态的肺结节检测方法,包括:从不同的数据集中获取原始CT图像,分割原始CT图像中的肺腔内部区域,得到肺腔内部区域图像;通过循环一致生成对抗网络CycleGAN对来自不同数据集的肺结节区域图像进行转换处理,得到统一模态的肺结节区域图像;通过经过训练的3D Unet网络对所述候选肺腔内部区域图像进行分割,提取出所述候选肺腔内部区域图像中的候选肺结节块;通过经过训练的3D DenseNet网络对所述候选结节块进行分类处理,删除假阳性的候选肺结节块,得到包含阳性肺结节的目标肺结节块。本发明中的方法检测效率高,误检率低。
-
公开(公告)号:CN108710904A
公开(公告)日:2018-10-26
申请号:CN201810441357.1
申请日:2018-05-10
Applicant: 上海交通大学
CPC classification number: G06K9/6215 , G06N3/0481 , G06N3/08
Abstract: 本发明公开了一种基于递归神经网络的图像匹配方法,包括:特征提取步骤:采用卷积神经网络对待匹配的两张图片分别进行特征提取;相似性度量步骤:采用递归神经网络以循环的方式依次处理得到的两张图片的特征,随着所述递归神经网络对两张图片的特征处理次数的增加,对两张图片匹配程度的预测越来越准确。本发明还涉及一种基于递归神经网络的图像匹配系统。本发明通过多次对两个特征的循环度量来得到最终的相似程度,图像匹配的精准度更加精确、误差更小,匹配效果更好。
-
-
-
-
-
-
-
-
-