一种凝胶颗粒乳状液体系及其提高采收率的方法

    公开(公告)号:CN114085661A

    公开(公告)日:2022-02-25

    申请号:CN202111306069.3

    申请日:2021-11-05

    Applicant: 清华大学

    Abstract: 本申请提供了一种凝胶颗粒乳状液体系及其提高采收率的方法,本申请涉及一种驱替液,所述驱替液包括凝胶颗粒,所述凝胶颗粒为共聚物,所述共聚物包括第一单体和第二单体;所述驱替液中的一部分所述凝胶颗粒被油滴包裹,形成微球;所述第一单体为非离子水溶性单体;所述第二单体为水溶性阴离子单体;所述驱替液还包括油滴包裹的凝胶颗粒,形成微球;所述微球与凝胶颗粒的重量比例为(1至10):100。本申请提供的提高采收率的方法在保证小尺寸的凝胶颗粒良好的注入性的同时,通过自发形成的微球在多孔介质中的成核堵塞机制与离散的凝胶颗粒协同实现堵塞‑分散过程以产生压力波动的效应,进而极大的提高采收率。

    基于深度学习的散射透镜成像系统

    公开(公告)号:CN111479097B

    公开(公告)日:2022-02-22

    申请号:CN202010216812.5

    申请日:2020-03-25

    Applicant: 清华大学

    Abstract: 本发明公开了一种基于深度学习的散射透镜成像系统,包括:成像系统,成像系统包括相机和散射透镜,散射透镜固定设置于相机前;投影系统,投影系统包括投影仪和幕布,投影系统设置于成像系统后,以使投影仪将多张预设图片分别投影至幕布上,相机拍摄幕布上经过散射透镜后得到的像,作为一一对应的物&像,以训练预设算法,并通过训练完成的预设算法对待成像物体成像,得到成像结果。本发明实施例的系统可以用深度学习替代解卷积,有效提高成像分辨率,在提高数值孔径的同时,实现比较高的分辨率,简单易实现。

    基于数据增强的低资源神经机器翻译方法及系统

    公开(公告)号:CN113673259A

    公开(公告)日:2021-11-19

    申请号:CN202110857215.5

    申请日:2021-07-28

    Applicant: 清华大学

    Abstract: 本发明提供一种基于数据增强的低资源神经机器翻译方法及系统,其中方法包括:确定待翻译的真实数据;将所述待翻译的真实数据输入至神经机器翻译模型,得到所述神经机器翻译模型输出的神经机器翻译结果;其中,所述神经机器翻译模型是基于包括低资源语言对上的平行语料和单语语料在内的原始真实数据进行数据增强后对低资源神经机器翻译模型训练后得到的。本发明实施例实现了将稀疏数据应用到低资源神经机器翻译的神经机器翻译模型,能够高效、准确地解决低资源神经机器翻译中的资源匮乏问题。

    基于隐变量模型的故事生成方法及装置

    公开(公告)号:CN110287999B

    公开(公告)日:2021-05-28

    申请号:CN201910450203.3

    申请日:2019-05-28

    Applicant: 清华大学

    Abstract: 本发明提供一种基于隐变量模型的故事生成方法及装置,方法包括:基于训练好的隐变量模型中的规划模型,根据故事的标题生成所述故事的大纲;其中,所述隐变量模型中的隐变量为所述大纲;基于所述训练好的隐变量模型中的生成模型,根据所述大纲和所述标题生成所述故事。本发明一方面利用故事大纲作为辅助指导信息使得生成的故事更加通顺、扣题,能够缩小故事生成中标题与故事之间的信息差,降低故事生成难度;另一方面,将故事大纲建模为隐变量,不限定其形式,使其能够蕴含更多的信息,并且隐变量是完全可学习的,具有很强的学习能力;此外还可以扩展成其他形式的文本生成,具有很好的实用性和通用性。

    基于压电压阻式宽频高场强微型电场传感器的生产工艺

    公开(公告)号:CN109342836B

    公开(公告)日:2021-03-26

    申请号:CN201811246208.6

    申请日:2018-10-24

    Applicant: 清华大学

    Abstract: 一种基于压电压阻式宽频高场强微型电场传感器的生产工艺,包括硅基晶片加工步骤、玻璃加工步骤、组合装配步骤。其有益效果是:采用微加工技术,可以实现电场传感器的小体积复杂结构,进而减小传感器本身对外电场的畸变影响;本发明对于传感器不同界面采用不同键合方式,对于不同结构采用针对性的微加工工艺,对于不同加工步骤采用可兼容的加工流程,有利于提高传感器的可靠性与实用性。

    机器翻译模型的训练方法、装置与电子设备

    公开(公告)号:CN110309516B

    公开(公告)日:2020-11-24

    申请号:CN201910463549.7

    申请日:2019-05-30

    Applicant: 清华大学

    Abstract: 本发明实施例提供一种机器翻译模型的训练方法、装置与电子设备,其中所述方法包括:利用第一平行语料库,初步训练目标端到源端的翻译模型;利用训练后的目标端到源端的翻译模型,分别翻译给定单语语料库中的每一句,获取合成语料库,并将所述合成语料库与所述给定单语语料库拼接,获取第二平行语料库;利用蒙特·卡罗随机失活算法,评估利用所述训练后的目标端到源端的翻译模型所获取翻译结果的可信度;基于所述可信度,利用所述第一平行语料库与所述第二平行语料库构成的整体语料库,训练源端到目标端的翻译模型。本发明实施例能够在存在噪声干扰的情况下,依然精准的训练翻译模型,保证翻译模型的精确性。

    一种结构化文本翻译方法及装置

    公开(公告)号:CN110232193B

    公开(公告)日:2020-08-28

    申请号:CN201910349677.9

    申请日:2019-04-28

    Abstract: 本发明实施例提供一种结构化文本翻译方法及装置,包括:将待翻译的目标结构化文本的结构化标记去除,得到目标文本;将所述目标文本输入到训练好的文本翻译神经网络模型中,根据短语搜索空间对所述目标文本的翻译候选词进行搜索翻译,得到目标翻译文本和对齐信息;根据所述对齐信息,对所述目标翻译文本进行结构化标记恢复处理,得到目标结构化翻译文本。本发明实施例通过将结构化文本的结构化标记去除,从而通过基于短语搜索空间的神经网络模型对去除结构化标记的文本进行翻译,并将翻译后的文本恢复结构化标记,得到结构化翻译文本,实现了通过神经网络模型对结构化文本进行翻译。

    平行短语学习方法及装置
    38.
    发明授权

    公开(公告)号:CN106126505B

    公开(公告)日:2020-01-31

    申请号:CN201610446994.9

    申请日:2016-06-20

    Applicant: 清华大学

    Abstract: 本发明涉及一种平行短语学习方法及装置,其中,该方法包括:根据句子级的单语语料库构建短语级的单语语料库;通过种子词典分别对源语言到目标语言的短语翻译模型以及目标语言到源语言的短语翻译模型进行初始化;使用两个短语翻译模型,在模型一致性约束下分别从两个单语语料库中抽取平行短语对,以在模型一致性约束下进一步优化两个短语翻译模型。本发明的平行短语学习方法及装置,可以实现从非平行的单语语料中,抽取平行语料,相比于平行语料而言,单语语料的获取更廉价、覆盖语言领域更全面,能补充当前平行语料库不足的情况,并很好地解决噪音的问题,提升抽取出的平行语料的精度和质量。

    结构光照明的频域光学相干层析系统及方法

    公开(公告)号:CN107981838B

    公开(公告)日:2019-10-29

    申请号:CN201711383205.2

    申请日:2017-12-20

    Applicant: 清华大学

    Abstract: 本发明公开了一种结构光照明的频域光学相干层析系统及方法,其中系统包括:空间滤波器用于产生干净且空间分布均匀的准直高斯光束;空间光调制器用于对准直高斯光束进行幅值的调制;迈克尔逊干涉仪用于对样本进行干涉测量;成像系统用于将入射的结构光照明成像至样本所在平面;高速光谱探测系统用于在探测端将参考臂和样本臂合并的光束会聚到光谱仪探测的有效区域;处理器用于产生触发信号确保空间光调制器和高速光谱探测系统同步的同时,通过压缩感知算法重建出多次结构光照明下平面中每个像素单元的光谱响应。该系统可以有效提高相干层析的便捷性和鲁棒性,扩展性好,可以实现极低采样率下的有效重建。

    基于隐变量模型的故事生成方法及装置

    公开(公告)号:CN110287999A

    公开(公告)日:2019-09-27

    申请号:CN201910450203.3

    申请日:2019-05-28

    Applicant: 清华大学

    Abstract: 本发明提供一种基于隐变量模型的故事生成方法及装置,方法包括:基于训练好的隐变量模型中的规划模型,根据故事的标题生成所述故事的大纲;其中,所述隐变量模型中的隐变量为所述大纲;基于所述训练好的隐变量模型中的生成模型,根据所述大纲和所述标题生成所述故事。本发明一方面利用故事大纲作为辅助指导信息使得生成的故事更加通顺、扣题,能够缩小故事生成中标题与故事之间的信息差,降低故事生成难度;另一方面,将故事大纲建模为隐变量,不限定其形式,使其能够蕴含更多的信息,并且隐变量是完全可学习的,具有很强的学习能力;此外还可以扩展成其他形式的文本生成,具有很好的实用性和通用性。

Patent Agency Ranking