预标注模型的构建方法、预标注方法及装置、电子设备

    公开(公告)号:CN116229197A

    公开(公告)日:2023-06-06

    申请号:CN202211481061.5

    申请日:2022-11-24

    Applicant: 浙江大学

    Abstract: 本发明公开了一种预标注模型的构建方法、预标注方法及装置、电子设备,所述预标注模型的构建方法包括:构建预标注初始模型;将未标注的数据集输入所述预标注初始模型中,得到标注数据集;从所述标注数据集筛选出标注不准确的数据;对所述标注不准确的数据进行人工标注;将人工标注后的数据加入到已标注的数据集中,构成新的训练集;使用新的训练集对所述预标注初始模型重新进行训练,得到预标注模型。所述预标注方法包括:获取待标注的数据;将所述待标注的数据输入到上述方法构建的预标注模型中进行预标注。解决了现有技术中存在的算法对数据需求量大,数据质量和数量要求高导致的人工标注成本上升和数据预标注模型效果不佳的问题。

    一种基于时空图的视频关系检测方法和系统

    公开(公告)号:CN112347965A

    公开(公告)日:2021-02-09

    申请号:CN202011280036.1

    申请日:2020-11-16

    Abstract: 本发明公开了一种基于时空图的视频关系检测方法和系统。首先,将视频中的实体集合和它们之间的关系建模为一个全连接的时空图,该图包括时间和空间维度邻域中的实体节点。对于关系检测,本发明提出了一种视频关系检测图卷积网络模型(VRD‑GCN),用于从上下文中聚合信息并在此时空图中进行推理。一方面,VRD‑GCN通过捕捉实体在时空维度上的几何和外观的相对变化来检测实体之间的动态关系。另一方面,通过将时空图中邻域中的节点和上下文的消息传递给目标实体,VRD‑GCN能够产生更准确和完整的检测结果。在检测到视频片段中的关系实例后,用一种使用孪生网络的在线关联方法将整个视频中的短期关系实例合并。该方法对于视频中的关系检测准确率高。

    融合不同模态信息实现媒体间交叉检索的方法

    公开(公告)号:CN101303694A

    公开(公告)日:2008-11-12

    申请号:CN200810061445.5

    申请日:2008-04-30

    Applicant: 浙江大学

    Abstract: 本发明公开了一种融合不同模态信息实现媒体间交叉检索的方法。包括如下步骤:1)对超媒体建立关系图并获得对应的相关系数矩阵;2)用户提交数据库内或数据库外的媒体对象或超媒体作为查询例子标注初始匹配度;3)利用超媒体间的相关系数矩阵反复迭代至稳定状态将匹配性传播到未标注的超媒体,并返回与查询例子匹配度大于0.6的超媒体或这些超媒体中的某种特定模态的媒体对象;4)周期性地根据用户的查询例子集和正例集对超媒体对象关系图进行调整。本发明融合各种媒体对象的底层特征,并通过媒体对象间亲缘关系来传播语义,所以检索效果更好,由于检索例子和返回结果的模态可以不同并且利用了语义传播,因此检索更准确,适用更广泛。

    基于多模态信息融合分析的跨媒体检索方法

    公开(公告)号:CN100388282C

    公开(公告)日:2008-05-14

    申请号:CN200610053392.3

    申请日:2006-09-14

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于多模态信息融合分析的跨媒体检索方法。利用该方法可以对多模态信息融合分析进行多媒体语义理解,从而实现基于内容的多媒体文档检索、图像检索、声音检索和文本检索。用户可以通过提交任意的模态的检索例子去检索任意模态的媒体对象或者多媒体文档。比如为了检索图像,用户既可以提交图像作为检索例子进行检索,也可以提交声音或者文本或者它们的组合作为检索例子进行检索。由于该方法在进行多媒体语义理解的时候,不仅仅依靠关键字,而是将多媒体文档内全体媒体对象进行融合分析后综合各种模态媒体对象所携带的信息进行语义理解,因此检索效果更好;由于检索例子和返回结果可以是不同模态的,因此功能更强大,适用更广泛。

    基于用户群体典型特征的强化学习分组方法、装置及介质

    公开(公告)号:CN114912518B

    公开(公告)日:2025-04-18

    申请号:CN202210458367.2

    申请日:2022-04-27

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于用户群体典型特征的强化学习分组方法、装置及介质。其步骤如下:1)对大规模在线学习系统中的用户画像提取原始特征;2)利用群体关系构建用户网络图,采用图卷积神经网络对个体用户特征进行升维映射,形成群体特征;3)利用可学习的聚类算法对群体特征进行聚类,形成多个用户群体类型;4)利用Q‑learning强化学习算法,在群体典型特征空间进行分组模型学习,最终得到最优的典型特征组合模式。本发明的方法适用于大规模在线学习中,研讨、实践、合作场景的学生用户分组,其分组效率高,准确性好、解释性强。本发明对于大规模在线学习平台中的用户分组教学实践具有十分重要的实际应用价值。

    基于领域不变的类别特征的可泛化分类方法、系统及设备

    公开(公告)号:CN119295842B

    公开(公告)日:2025-03-21

    申请号:CN202411827374.0

    申请日:2024-12-12

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于领域不变的类别特征的可泛化分类方法、系统及设备,属于计算机视觉处理领域。本发明的方法首先针对预设类别的分类任务,从多个环境中采集图像,以构建源域图像数据集,对源域图像数据集采样以及预处理后,构建多个用于训练的批处理样本集合,每个预处理后的图像对应一个真实类别标签,然后再批处理样本集合上训练图像分类模型,最终将待分类的图像输入到训练好的图像分类模型中,输出图像类别的分类结果。本发明可以从输入特征之间寻找到领域不变且类别特殊的稳定特征,并基于此预测类别,可以有效提升图像分类模型的泛化能力。

    基于文本驱动的零样本6自由度视频编辑方法及系统

    公开(公告)号:CN119316668A

    公开(公告)日:2025-01-14

    申请号:CN202411854450.7

    申请日:2024-12-17

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于文本驱动的零样本6自由度视频编辑方法及系统,属于计算机视觉处理领域。本发明的方法包括:基于扩散模型逐帧处理多视角源视频,由编码器编码各帧原始图像;在UNet网络的反演过程中注入文本表征,存储每个加噪时间步的交叉注意力图和自注意力图;更新无文本控制向量,由设计好的UNet编辑器输出编辑图像隐编码并由解码器对其进行解码,输出目标图像;将像素级别掩码作为权重,对目标图像和原始图像进行加权,以构成编辑后的视频;再次训练四维表征网络,将渲染视角和时间戳序列作为输入,最终输出重建好的6自由度视频。通过本发明的方法,用户可以通过与文本交互,实现对6自由度动态场景的灵活操作。

    基于用户群体典型特征的强化学习分组方法、装置及介质

    公开(公告)号:CN114912518A

    公开(公告)日:2022-08-16

    申请号:CN202210458367.2

    申请日:2022-04-27

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于用户群体典型特征的强化学习分组方法、装置及介质。其步骤如下:1)对大规模在线学习系统中的用户画像提取原始特征;2)利用群体关系构建用户网络图,采用图卷积神经网络对个体用户特征进行升维映射,形成群体特征;3)利用可学习的聚类算法对群体特征进行聚类,形成多个用户群体类型;4)利用Q‑learning强化学习算法,在群体典型特征空间进行分组模型学习,最终得到最优的典型特征组合模式。本发明的方法适用于大规模在线学习中,研讨、实践、合作场景的学生用户分组,其分组效率高,准确性好、解释性强。本发明对于大规模在线学习平台中的用户分组教学实践具有十分重要的实际应用价值。

    双向注意力和判案逻辑结合的辅助判案方法、装置、介质

    公开(公告)号:CN112329891B

    公开(公告)日:2022-05-31

    申请号:CN202011367208.9

    申请日:2020-11-27

    Applicant: 浙江大学

    Abstract: 本申请提供一种双向注意力和判案逻辑结合的辅助判案方法、装置、介质。本发明将判案逻辑和类案知识应用于基于深度学习的法律判决自动预测任务,相比一般的法律判决自动预测算法,本发明对查明事实和原告诉请、原告诉请之间的判案逻辑知识进行了建模,能有效提升算法的可解释性。本发明首次运用判案逻辑知识对法律判决进行自动预测,与其它在该认为上尝试过的模型相比较,本发明在算法和运用上都有自己的独创性和独特性。本发明可以将司法领域专家知识显性地与深度神经网络相结合,提升智能司法判案准确率,并提供判案可解释性。

    基于多模态信息融合分析的跨媒体检索方法

    公开(公告)号:CN1920818A

    公开(公告)日:2007-02-28

    申请号:CN200610053392.3

    申请日:2006-09-14

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于多模态信息融合分析的跨媒体检索方法。利用该方法可以对多模态信息融合分析进行多媒体语义理解,从而实现基于内容的多媒体文档检索、图像检索、声音检索和文本检索。用户可以通过提交任意的模态的检索例子去检索任意模态的媒体对象或者多媒体文档。比如为了检索图像,用户既可以提交图像作为检索例子进行检索,也可以提交声音或者文本或者它们的组合作为检索例子进行检索。由于该方法在进行多媒体语义理解的时候,不仅仅依靠关键字,而是将多媒体文档内全体媒体对象进行融合分析后综合各种模态媒体对象所携带的信息进行语义理解,因此检索效果更好;由于检索例子和返回结果可以是不同模态的,因此功能更强大,适用更广泛。

Patent Agency Ranking