-
公开(公告)号:CN114357970A
公开(公告)日:2022-04-15
申请号:CN202210010909.X
申请日:2022-01-05
Applicant: 西安交通大学
IPC: G06F40/205 , G06F40/151
Abstract: 本发明提出了一种征信报告解析方法、系统、终端设备和存储介质,构建征信报告特征和征信报告特征组,并报告数据库中的征信报告标识,取出对应的征信报告,根据取出的征信报告,对征信报告特征进行计算;对征信报告所在文件夹内所有征信报告进行过滤、标记和计算,创建模型数据集,并将模型数据集保存至数据库。实现了同一个特征可以从不同格式的征信报告中,获取用户信息,并支持根据特定要求对用户信息的过滤,转化和函数计算,特征可以根据业务在线开发和计算,使征信报告的解析更加灵活,自动化和智能化,加快了征信报告的解析效率。解决了现有技术中针对不同样式的征信报告文件解析困难的问题。
-
公开(公告)号:CN114332729A
公开(公告)日:2022-04-12
申请号:CN202111678887.6
申请日:2021-12-31
Applicant: 西安交通大学
Abstract: 本发明公开了一种视频场景检测标注方法及系统,根据输入视频、音频和文本嵌入的模态信息源,采用预训练模型获取视频、音频和文本的模态特征,将获取的视频、音频和文本的模态特征进行对齐和融合形成窗口基本跨模态表示,根据多时相注意和相邻窗口之间的差异,将窗口基本跨模态表示演化为自适应上下文感知表示,根据获取的自适应上下文感知表示对场景进行检测,通过窗口属性分类器确定窗口的属性,通过位置偏移回归器在该窗口中获取场景边界的准确位置;基于获取的场景边界,为每个场景指定多个标签实现场景标注,将场景检测归结为窗口属性分类和位置偏移回归,并通过两级分类器的集成学习解决多标签标注问题。通过跨模态线索的统一网络解决错误传播和巨大计算成本问题;将场景检测归结为窗口属性分类和位置偏移回归,并通过两级分类器的集成学习解决多标签标注问题。
-
公开(公告)号:CN111178499A
公开(公告)日:2020-05-19
申请号:CN201911259611.7
申请日:2019-12-10
Applicant: 西安交通大学
Abstract: 一种基于生成对抗网络改进的医学图像超分辨率方法,获取高分辨率医学图像数据集,分为训练数据集和测试数据集;将高分辨率医学图像数据集进行下采样得到低分辨率医学图像数据集;在SRGAN的生成器模块的残差块中使用空洞卷积替代普通卷积,得到第一网络结构模型;将第一网络结构模型的生成器模块的批归一化层去掉,得到第二网络结构模型;利用平均结构相似性感知损失函数改进SRGAN的感知损失函数,得到结构感知损失函数;将高分辨训练数据集和低分辨率训练数据集作为第二网络结构模型的输入,利用结构感知损失函数对第二网络结构模型进行训练;利用高分辨测试数据集和低分辨率测试数据集,对训练后的第二网络结构模型进行验证,完成医学图像超分辨率。
-
公开(公告)号:CN119941816A
公开(公告)日:2025-05-06
申请号:CN202510111292.4
申请日:2025-01-23
Applicant: 西安交通大学
IPC: G06T7/50 , G06V10/42 , G06V10/44 , G06V10/77 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/084 , G06N3/09 , G06N3/096
Abstract: 本发明公开了一种基于文本引导与多尺度融合的单目深度估计方法及系统,采用了跨语义注意力模块动态融合这些特征,并结合多尺度残差融合模块(显著提升了深度估计的准确性和鲁棒性。与仅依赖图像特征的传统方法不同,本实施例的方法充分利用了预训练编码器中继承的丰富语义先验,从而增强了图像特征的表达能力。此外,图像的对应文本描述被编码后作为先验知识融入模型。通过交叉注意力机制动态调整图像和文本特征的权重并将它们融合在一起,随后通过多尺度残差计算捕捉图像在不同分辨率下的细粒度变化,使模型能够同时理解细节的局部信息和全局场景布局。这种设计不仅增强了模型适应复杂场景的能力,还显著提升了深度边界和细节的恢复效果。
-
公开(公告)号:CN119785057A
公开(公告)日:2025-04-08
申请号:CN202411862383.3
申请日:2024-12-17
Applicant: 西安交通大学
Abstract: 本发明公开了一种基于多模态多尺度交叉注意力的目标计数方法及系统,包括:基于块级视觉嵌入向量和文本嵌入向量,构建相似度矩阵;进而建立基于多分类交叉熵的对比学习损失,以增强块级视觉向量在视觉‑语言模型下的文本配对能力。同时构建包含类型语义信息和数量语义信息的文本嵌入、以及与之维度相同的视觉嵌入张量,经过缩放点积模型的计算,输出注意力分数,并最终得到块级视觉嵌入在文本嵌入向量空间的特征表示。构建了基于双分支Cross‑ViT结构多尺度视觉特征交互模块,实现不同尺度视觉特征间的访问和融合。本发明增强了模型在复杂场景下对不同尺度的目标细节和上下文信息的特征提取性能,为目标计数的下游密度图回归任务提供了良好的视觉编码。
-
公开(公告)号:CN115412449B
公开(公告)日:2024-02-27
申请号:CN202211058420.6
申请日:2022-08-31
Applicant: 西安交通大学
IPC: H04L41/142 , H04L41/147 , H04L41/0896
Abstract: 本发明公开了一种基于负载预测的容器动态伸缩方法及系统,包括以下步骤:实时获取容器当前应用负载和预测负载,设定容器伸缩的阈值;比较容器当前应用负载和预测负载与设定的阈值之间的大小关系:若当前应用负载或预测负载大于设定的阈值,进行扩容;若当前应用负载和预测负载均小于设定的阈值,进行缩容。可以针对平台运行的多种情况进行合理分配,保证平台处于合理和理想的状态,避免扩容延迟或抖动,响应时间缩短,提高了容器运行的稳定性,避免了资源的浪费,提高了运行效率,解决现有技术中伸缩扩容方法针对不同情况无法合理进行扩容和缩容,且容器伸缩时容易出现扩容延迟或
-
公开(公告)号:CN114332729B
公开(公告)日:2024-02-02
申请号:CN202111678887.6
申请日:2021-12-31
Applicant: 西安交通大学
Abstract: 本发明公开了一种视频场景检测标注方法及系统,根据输入视频、音频和文本嵌入的模态信息源,采用预训练模型获取视频、音频和文本的模态特征,将获取的视频、音频和文本的模态特征进行对齐和融合形成窗口基本跨模态表示,根据多时相注意和相邻窗口之间的差异,将窗口基本跨模态表示演化为自适应上下文感知表示,根据获取的自适应上下文感知表示对场景进行检测,通过窗口属性分类器确定窗口的属性,通过位置偏移回归器在该窗口中获取场景边界的准确位置;基于获取的场景边界,为每个场景指定多个标签实现场景标注,将场景检测归结为窗口属性分类和位置偏移回归,并通过两级分类器的集成学习解决多标签标注问题。通过跨模态线索的统一网络解决错误传播和巨大计算成本问题;将场景检测归结为窗口属性分类和位置偏移回归,并通过两级分类器的集成学习解决多标签标注问题。
-
公开(公告)号:CN116012658A
公开(公告)日:2023-04-25
申请号:CN202310112547.X
申请日:2023-02-14
Applicant: 西安交通大学
IPC: G06V10/764 , G06V10/77 , G06V10/82 , G06T7/73 , G06T7/90 , G06N3/0464 , G06N3/0455 , G06N3/0895
Abstract: 本发明公开了一种自监督预训练目标检测方法、系统、设备及存储介质,包括从给定的输入图片中提取proposals,选取前30个proposals作为带粘贴的patch块;获取的patch块粘贴到选取的背景图中,得到合成图,为预训练提供了准确的位置标注,提取下游待检测目标的色彩RGB值,在粘贴的patch块中随机选择一片区域将其改为与提取的色彩RGB值相应的颜色,优化了预训练目标检测中的分类能力,分别提取合成图的特征以及粘贴的patch块的多尺度特征,并将patch块的多尺度特征编码为object query;object query基于提取的合成图特征进行学习,并对学习后的object query进行类别和边界框预测,得到预测的集合,将预测的集合和真实的标注集合进行匹配,本发明解决了预训练代理任务在目标检测定位和分类方面的不足的问题。
-
公开(公告)号:CN111161278B
公开(公告)日:2023-04-18
申请号:CN201911275910.X
申请日:2019-12-12
Applicant: 西安交通大学
IPC: G06T7/11 , G06T7/00 , G06T5/50 , G06N3/08 , G06N3/0464
Abstract: 本发明公开了一种基于深层网络聚合的眼底图像病灶分割方法,包括以下步骤:1)获取若干眼底病灶图像,对每个眼底病灶图像中的病灶轮廓进行人工分割,得真值标签,构建训练集及测试集;2)在U‑Net模型的骨干网络中添加深层聚合网络模块;3)将步骤2)得到的U‑Net模型迁移至眼底图像的病灶分割中,对U‑Net模型进行训练,并将训练后的U‑Net模型作为眼底图像病灶分割模型;4)利用眼底图像病灶分割模型对待分割眼底图像进行分割,该方法能够有效的解决现有技术中基于深度卷积神经网络的眼底图像病灶分割效果差的问题。
-
公开(公告)号:CN111178499B
公开(公告)日:2022-06-07
申请号:CN201911259611.7
申请日:2019-12-10
Applicant: 西安交通大学
Abstract: 一种基于生成对抗网络改进的医学图像超分辨率方法,获取高分辨率医学图像数据集,分为训练数据集和测试数据集;将高分辨率医学图像数据集进行下采样得到低分辨率医学图像数据集;在SRGAN的生成器模块的残差块中使用空洞卷积替代普通卷积,得到第一网络结构模型;将第一网络结构模型的生成器模块的批归一化层去掉,得到第二网络结构模型;利用平均结构相似性感知损失函数改进SRGAN的感知损失函数,得到结构感知损失函数;将高分辨训练数据集和低分辨率训练数据集作为第二网络结构模型的输入,利用结构感知损失函数对第二网络结构模型进行训练;利用高分辨测试数据集和低分辨率测试数据集,对训练后的第二网络结构模型进行验证,完成医学图像超分辨率。
-
-
-
-
-
-
-
-
-