-
公开(公告)号:CN111938655B
公开(公告)日:2021-09-03
申请号:CN202010655993.1
申请日:2020-07-09
Applicant: 上海交通大学 , 上海交通大学医学院附属第九人民医院
IPC: A61B5/107
Abstract: 本发明提供了一种基于关键点信息的眼眶软组织形态评价方法、系统及设备,使用LSFM模型对三维人脸数据进行注册,并以标准可动模型所处的坐标空间为基础对三维人脸数据做校准和归一化;记录左右眼区域特征点索引和特征点数量,并提取左右眼区域特征点;采用线性回归模型判断从三维人脸数据手术前后对应的左、右眼特征点区域,得到平均位移矩阵和对应区域是否进行手术,再得到线性回归的自变量和因变量,计算出方向对结果影响的权值;计算手术眼区域与标准可动模型的平均位移矩阵和非手术眼区域与标准可动模型的平均位移矩阵,设定阈值判断术后眼眶软组织恢复情况。本发明准确率达到90%。
-
公开(公告)号:CN111938655A
公开(公告)日:2020-11-17
申请号:CN202010655993.1
申请日:2020-07-09
Applicant: 上海交通大学 , 上海交通大学医学院附属第九人民医院
IPC: A61B5/107
Abstract: 本发明提供了一种基于关键点信息的眼眶软组织形态评价方法、系统及设备,使用LSFM模型对三维人脸数据进行注册,并以标准可动模型所处的坐标空间为基础对三维人脸数据做校准和归一化;记录左右眼区域特征点索引和特征点数量,并提取左右眼区域特征点;采用线性回归模型判断从三维人脸数据手术前后对应的左、右眼特征点区域,得到平均位移矩阵和对应区域是否进行手术,再得到线性回归的自变量和因变量,计算出方向对结果影响的权值;计算手术眼区域与标准可动模型的平均位移矩阵和非手术眼区域与标准可动模型的平均位移矩阵,设定阈值判断术后眼眶软组织恢复情况。本发明准确率达到90%。
-
公开(公告)号:CN111951219B
公开(公告)日:2022-12-20
申请号:CN202010655721.1
申请日:2020-07-09
Applicant: 上海交通大学 , 上海交通大学医学院附属第九人民医院
Abstract: 本发明提供了一种基于眼眶CT图像的甲状腺眼病筛查方法、系统及设备,包括:获取待识别眼眶CT图像;对获取的待识别眼眶CT图像进行预处理;利用分类CNN模型对预处理后的眼眶CT图像进行甲状腺相关眼病和非甲状腺相关眼病的识别;得到眼眶CT图像分类结果;其中获取的待识别眼眶CT图像为3D图像,断层扫描区域为从眉骨至鼻子的区域。本发明解决了眼科医生人工判断带来的误差问题。具有更加客观性的优点,同时,分类CNN模型的准确率和速度使筛查更加的快速和高效,能够及早的发现问题。
-
公开(公告)号:CN111951219A
公开(公告)日:2020-11-17
申请号:CN202010655721.1
申请日:2020-07-09
Applicant: 上海交通大学 , 上海交通大学医学院附属第九人民医院
Abstract: 本发明提供了一种基于眼眶CT图像的甲状腺眼病筛查方法、系统及设备,包括:获取待识别眼眶CT图像;对获取的待识别眼眶CT图像进行预处理;利用分类CNN模型对预处理后的眼眶CT图像进行甲状腺相关眼病和非甲状腺相关眼病的识别;得到眼眶CT图像分类结果;其中获取的待识别眼眶CT图像为3D图像,断层扫描区域为从眉骨至鼻子的区域。本发明解决了眼科医生人工判断带来的误差问题。具有更加客观性的优点,同时,分类CNN模型的准确率和速度使筛查更加的快速和高效,能够及早的发现问题。
-
公开(公告)号:CN118587720A
公开(公告)日:2024-09-03
申请号:CN202410737906.5
申请日:2024-06-07
Applicant: 上海交通大学
IPC: G06V30/18 , G06V30/226 , G06V30/19 , G06V10/82 , G06N3/0455 , G06N3/084 , G06N3/09
Abstract: 一种基于位置森林变换器的手写数学表达式识别方法,包括:构建位置森林结构,并利用该位置森林结构来编码LaTeX表达式中符号间的相对位置关系,从而预测数学表达式的LaTeX序列;构建隐式注意力校正模块,在基于序列的解码器架构中修正结构符号的干扰,捕捉手写数学表达式图像识别的注意力;基于这个框架进行训练;将待识别图像输入到训练后的位置森林变换器模型中,得到数学公式的Latex表达式。本发明不需要额外的数据标注,通过解析每个符号在位置森林中的位置标识符,准确地描述符号的位置和层次关系,一定程度上克服了复杂结构关系和多样化手写风格带来的挑战,提高了手写数学公式的识别准确率,而且没有额外的延迟或计算成本。
-
公开(公告)号:CN118397305A
公开(公告)日:2024-07-26
申请号:CN202410350754.3
申请日:2024-03-26
Applicant: 上海交通大学
IPC: G06V10/62 , G06V20/52 , G06V10/774
Abstract: 本公开提供一种基于行人换衣的行人重识别方法、系统、介质及电子设备,其中,基于行人换衣的行人重识别方法,包括:获取图像数据集;将图像数据集中任意两张具有不同服装种类的行人图像输入预设的行人换衣模型中,确定换衣的行人图像;采用图像数据集中的具有服装的行人图像和换衣的行人图像对预设的行人识别模型进行模型训练,确定换衣行人重识别模型;将待识别行人图像输入换装行人识别模型中,确定待识别行人的身份信息。通过本公开,解耦行人换衣目标与行人识别目标,实现多目标优化,并实现在复杂背景的情况下的行人换衣,通过行人换衣进行数据增强,提高换衣行人重识别模型对换衣行人的识别性能。
-
公开(公告)号:CN118314253A
公开(公告)日:2024-07-09
申请号:CN202410349788.0
申请日:2024-03-26
Applicant: 上海交通大学
IPC: G06T13/40 , G06T15/04 , G06N3/0475 , G06N3/045 , G06N3/094
Abstract: 本公开提供一种可驱动三维人体的生成方法及系统,可驱动三维人体的生成方法包括:获取人体的第一隐码和第二隐码;将第一隐码输入基于样式的生成对抗网络中,确定三平面表征;将预设的人体参数输入蒙皮多人线性模型,对输出的三维人体网格数据进行采样处理,确定采样点;根据三平面表征和采样点,确定三维人体点云表征;将局部特征信息、第一隐码、第二隐码、三维人体点云表征的坐标输入预训练的外貌预测神经网络,确定外貌属性;根据三维人体点云表征和外貌属性,确定可驱动三维人体。通过本公开,采用神经点云人体表征方式,实现高分辨率渲染的可驱动三维人体,并实现自动化批量生产,降低生产成本。
-
公开(公告)号:CN118053132A
公开(公告)日:2024-05-17
申请号:CN202410164254.0
申请日:2024-02-05
Applicant: 上海交通大学
IPC: G06V20/56 , G06V10/774 , G06V10/80 , G06N3/092
Abstract: 本公开提供一种面向自动驾驶决策的环境模拟与强化学习系统,包括:交互数据采集模块,将车辆当前时刻需要采取的动作作为输入与仿真环境进行交互,输出四元组信息;环境模拟器学习模块,将当前时刻环境的视觉观测对应的视觉图像和车辆当前时刻需要采取的动作作为输入,输出重建的视觉图像和预测的模拟环境的奖励值;行为策略学习模块,将经过解耦处理获取的可控动态和不可控动态作为输入,输出车辆当前时刻的执行动作。通过本公开,将复杂视觉动态信息解耦处理为可控动态和不可控动态,同时建模两者间的依赖关系,学习更精确的环境模拟器,并对未来不可控动态进行预测,构建强化学习算法,在决策前提前预判未来环境的变化趋势,提高决策的准确性。
-
公开(公告)号:CN117912078A
公开(公告)日:2024-04-19
申请号:CN202410057960.5
申请日:2024-01-15
Applicant: 上海交通大学
IPC: G06V40/16 , G06V40/40 , G06V10/774 , G06V10/82
Abstract: 本发明提供一种基于高效微调视觉预训练模型的人脸伪造检测方法和系统,包括:获取初始视觉预训练模型ConvNext‑V2;将基于中心差分卷积算子的适配器插入初始视觉预训练模型的逆瓶颈模块,获得微调ConvNext‑V2模型;获取任务训练数据,并划分为训练集和验证集;采用训练集对微调ConvNext‑V2模型进行训练,采用验证集验证训练是否已完成;将训练好的微调ConvNext‑V2模型用于人脸伪造检测。本发明只需对适配器模块的参数微调,极大地降低参数学习的规模;其能够降低对训练数据集数量规模的要求,在面临仅提供少量训练数据集的实际场景下,该方法和系统大幅优于现有的基于先验经验的人脸伪造检测方法。
-
公开(公告)号:CN117725987A
公开(公告)日:2024-03-19
申请号:CN202311786650.9
申请日:2023-12-25
Applicant: 上海交通大学
IPC: G06N3/096 , G06N3/0442 , G06N3/084 , G06N3/006
Abstract: 本公开提供一种面向智能体视觉控制的迁移强化学习系统,其包括:教师模型预训练模块,采用源域动作离线视频数据对教师模型进行模型训练,确定完成模型训练的教师模型;学生模型训练模块,采用智能体与环境的在线交互数据对学生模型进行模型训练,并将完成模型训练的教师模型迁移至学生模型训练模块对学生模型进行辅助训练,确定完成模型训练的学生模型,将目标域任务的视觉图像作为完成模型训练的学生模型的输入,输出执行目标域任务的动作。通过本公开,采用已有的源域动作离线视频数据辅助在线目标域智能体的学习,有效缓解离线域与在线域之间的域差异,提高目标域智能体解决任务的表现。
-
-
-
-
-
-
-
-
-