-
公开(公告)号:CN111027602A
公开(公告)日:2020-04-17
申请号:CN201911167676.9
申请日:2019-11-25
Applicant: 清华大学深圳国际研究生院
Abstract: 本发明提供一种多级结构目标检测方法,包括:获取输入图像的特征并由特征获取图像的前景中心信息和前景长宽信息;根据前景中心信息、前景长宽信息得到输入图像的前景区域的位置和大小,计算前景区域的模糊度并根据模糊度和预先设置的阈值将前景区域分为模糊和清晰两个类别;根据前景区域的位置和大小以及图像特征得到固定维度的前景特征,前景特征根据前景区域的类别分开检测获得前景中心修正信息,前景长宽信息,前景目标种类分类信息;根据前景中心信息和前景中心修正信息得到目标准确位置;根据前景长宽信息和前景长宽修正信息得到目标准确大小,由前景分类信息得到目标的目标种类分类结果。
-
公开(公告)号:CN112836618B
公开(公告)日:2023-10-20
申请号:CN202110118997.0
申请日:2021-01-28
Applicant: 清华大学深圳国际研究生院
Abstract: 本发明提供一种三维人体姿态估计方法及计算机可读存储介质,方法包括:采用人体检测网络从原始图像中获取单人图像并做标准化处理;使用二维姿态估计方法从单人图像中预测关键点的二维坐标;将二维坐标生成三维坐标,包括:使用三维姿态生成器预测关键点的第一三维坐标;根据人体关节的对称结构将所述二维坐标作对称处理,再使用三维姿态生成器预测关键点的第二三维坐标;第一三维坐标和第二三维坐标分别与对应的标签计算差值,结果求和用于反向传播,得到三维人体姿态估计。充分利用了人体关键点间的连接关系及对称关系,能够达到优化预测结果的目的;同时在原有数据集的基础上,实现了训练数据的扩充,增强了模型的鲁棒性。
-
公开(公告)号:CN111490872B
公开(公告)日:2022-09-16
申请号:CN202010197449.7
申请日:2020-03-19
Applicant: 清华大学深圳国际研究生院
Abstract: 一种基于公私钥对的深度学习模型水印的嵌入和提取方法,包括:通过将深度卷积神经网络模型中的批归一化层转换成水印层,将鉴权信息通过水印嵌入损失函数在模型的训练过程中嵌入模型的任意一层或者任意几层,形成特异性水印,其中,将所述批归一化层中的缩放因子变成公钥和私钥,所述私钥为不可学习的缩放因子,在模型初始化阶段随机选取特征图生成,所述公钥为可学习的缩放因子,在训练过程中所述公钥随着所述私钥的改变而产生同步变化。通过对模型水印中的鉴权信息进行提取,能够实现模型所有权的认证。
-
公开(公告)号:CN109474641A
公开(公告)日:2019-03-15
申请号:CN201910003982.2
申请日:2019-01-03
Applicant: 清华大学
IPC: H04L29/06 , H04L12/933
Abstract: 本发明涉及一种可破坏硬件木马的可重构交换机转发引擎解析器,其包括数据预处理单元、若干级联的基本处理单元和提取单元;第一级基本处理单元的密钥通路对密钥进行密钥位关键字提取和移位,并将结果发送至本级的数据通路和下级的密钥通路;基本处理单元的数据通路对数据帧进行关键字段提取和移位,生成下一级基本处理单元的提取字段偏移量、本级各字段的偏移量和字段标识和移位后的数据帧分别发送至下一级或本级基本处理单元;其他各级基本处理单元依次对密钥帧和数据帧进行关键字提取和移位;提取单元从最后一级基本处理单元中进行密钥帧和数据帧的提取,并转发至后续包处理部分。本发明可广泛应用于交换机转发引擎解析器的设计中。
-
公开(公告)号:CN118569242A
公开(公告)日:2024-08-30
申请号:CN202410704921.X
申请日:2024-06-03
Applicant: 清华大学深圳国际研究生院 , 平安科技(深圳)有限公司
IPC: G06F40/194 , G06F40/30 , G06F18/214 , G06F18/23
Abstract: 一种文本指令微调场景的持续学习方法,包括:在模型训练前,利用大语言模型将文本任务指令转换为嵌入表示,并通过Wasserstein距离计算任务相似性,在增量学习场景中动态分配回放的数据量;为旧任务指令生成意图标签并进行处理以提供更加细粒度的信息,进而计算InsInfo值量化指令多样性和复杂性。训练过程中,先依据任务相似性动态调整回放数据量,对差异较大的旧任务分配更多的回放数据,帮助模型有选择性的回忆旧任务。在确定各个旧任务的回放数据量后,优先回放具有高InsInfo值的指令数据,并持续评估模型性能。本方法有效缓解灾难性遗忘,提升模型在增量式学习中的文本任务适应能力,无需大幅改动模型架构,具有高计算效率,显著提升了大语言模型的泛化能力。
-
公开(公告)号:CN118325982A
公开(公告)日:2024-07-12
申请号:CN202410611424.5
申请日:2024-05-16
Applicant: 清华大学 , 北京微构工场生物技术有限公司
Abstract: 本发明提供了一种生产酰基辅酶A或其衍生物的方法,所述的方法包括使用CO2衍生物对盐单胞菌培养过程中pH进行调节,且CO2衍生物可以作为底物,用以生产酰基辅酶A或其衍生物,实验结果显示,以CO2衍生物和碳源作为共底物,乙酰辅酶A丰度增加了241%,且生产过程绿色可持续。
-
公开(公告)号:CN117143793A
公开(公告)日:2023-12-01
申请号:CN202311396933.2
申请日:2023-10-26
Applicant: 清华大学 , 北京微构工场生物技术有限公司
IPC: C12N1/21 , C08G63/06 , A61K31/19 , A61L31/06 , A61L31/14 , A61L17/10 , A61L27/18 , A61L27/58 , C12N15/53 , C12N15/54 , C12N15/55 , C12N15/74 , C12P13/00 , C12P7/42 , C12P7/625 , C12R1/01
Abstract: 本发明提供了一种生产5‑碳化合物或其聚合物的重组菌及其应用,通过对原本不能生产5‑碳化合物的菌株进行改造,加入5‑碳化合物合成基因,构建可以生产5‑碳化合物或包含5‑碳化合物单体的聚合物的重组菌,实现5‑氨基戊酸、5‑羟基戊酸、5‑羟基戊酸相关的PHA等高附加值化合物的生产。以搭建一个更加经济、可持续和高效益生产5‑碳化合物、包含5‑碳化合物单体的聚合物的平台,对进一步降低生产成本,提高可持续发展方面具有重要的作用。
-
公开(公告)号:CN111079790B
公开(公告)日:2023-06-30
申请号:CN201911129753.1
申请日:2019-11-18
Applicant: 清华大学深圳国际研究生院
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 一种构建类别中心的图像分类方法,包括:提取图像特征向量,在特征空间构建类别中心向量;以图像特征向量与类别中心向量之间的欧式距离作为分类依据进行图像特征分类;根据类别中心向量两两之间的欧式距离计算不同类别的分散程度;根据分类结果和不同类别分散程度计算网络的损失函数,利用损失函数对网络参数和中心向量进行学习。本发明的图像分类方法具有控制类内和类间距离的特点,该方法通过直接构建类别中心的方法控制类内和类间距离,使图像特征的分布更加有利于分类,从而取得更好的分类效果。和现有技术对比,利用本发明的方法可以使网络提取的特征具有更好的类内和类间分布特性。
-
公开(公告)号:CN112837362A
公开(公告)日:2021-05-25
申请号:CN202110121062.8
申请日:2021-01-28
Applicant: 清华大学深圳国际研究生院
Abstract: 本发明提供一种获取空间定位的三维人体姿态估计方法及计算机可读存储介质,方法包括:采用人体检测网络从原始图像中获取单人图像并做标准化处理;使用二维人体姿态估计的方法从所述单人图像中预测关键点的二维坐标,使用三维姿态生成器从所述关键点的二维坐标预测所述关键点的三维坐标,得到三维人体姿态估计的结果;同时从二维人体姿态估计网络的特征中获取人体参数;根据所述人体参数校正所述三维人体姿态估计的结果的尺度;计算视角偏差,旋转校正后的三维人体姿态估计结果与相机坐标系对齐;依据透视投影的原理,拟合绝对深度,获取空间定位,完成三维人体姿态估计。提高结果准确性、降低系统误差。
-
公开(公告)号:CN109829925A
公开(公告)日:2019-05-31
申请号:CN201910064557.4
申请日:2019-01-23
Applicant: 清华大学深圳研究生院
Abstract: 本发明公开一种在抠图任务中提取干净前景的方法及模型训练方法,其模型训练方法包括:A1.采集前景的不透明度和色彩数据;A2.将前景和背景组合生成组合图像;A3.根据组合图像中前景的不透明度标签,将组合图像中的前景中完全不透明区域用白色表示,完全透明区域用黑色表示,半透明区域用灰色表示;然后通过膨胀形态学操作,将半透明区域进行扩大形成未知区域,最终生成前景标记三色草图;A4.训练卷积神经网络:输入组合图像原图以及相应的前景标记三色草图,输出前景的不透明度估计和背景的色彩估计,将输出与组合图像中的真值标签进行比对并根据比对结果对卷积神经网络模型的参数不断调整,以获得训练好的卷积神经网络模型。
-
-
-
-
-
-
-
-
-