Linux文件系统审计事件合并和优化的方法

    公开(公告)号:CN102073579B

    公开(公告)日:2015-04-22

    申请号:CN201110025251.1

    申请日:2011-01-24

    Applicant: 复旦大学

    Abstract: 本发明属于计算机系统安全管理技术领域,具体涉及一种Linux文件系统审计事件合并和优化的方法。本发明方法是在客户端和服务器端同时进行合并优化,客户端对目录下被监控文件通过审计规则进行判断,符合则形成最原始的审计记录,并通过提取处理后发送到服务器端;基于自定义过滤规则,不发送无审计意义的记录;服务器端对一新的审计记录与对应的综合审计记录根据匹配规则进行判断。若匹配,则合并进此综合审计记录;若不匹配,则新建一条综合审计记录,把这条审计记录合并进新的综合审计记录。从而清晰地还原对审计监控目标进行文件操作的线索。

    一种碳材料/纳米硅复合材料及其制备方法和应用

    公开(公告)号:CN100383037C

    公开(公告)日:2008-04-23

    申请号:CN200610027441.6

    申请日:2006-06-08

    Applicant: 复旦大学

    Abstract: 本发明属电化学技术领域,具体涉及一种通过混合煅烧法制备碳材料/纳米硅复合材料的方法以及由此方法得到的碳材料/纳米硅复合材料。由本发明方法制备的碳材料/纳米硅复合材料具有稳定的结构,平均粒径小于1毫米。在锂离子嵌入和脱嵌过程中,由于纳米硅粒子固定在碳材料的表面,并与表面具有较强的作用力,避免了大量纳米粒子之间的团聚效应,同时由于碳材料具有稳定的结构,使锂离子电池具有高的可逆容量和良好的循环性能。本发明方法可操作性强,重现性好,且所得产品质量稳定。

    一种锂离子电池负极材料的制备方法

    公开(公告)号:CN1885594A

    公开(公告)日:2006-12-27

    申请号:CN200610026694.1

    申请日:2006-05-18

    Applicant: 复旦大学

    Abstract: 本发明属于电化学技术领域,具体涉及一种制备超低温锂离子电池复合负极材料的方法以及由此方法得到的复合负极材料。本发明方法包括对商品化石墨粉的氧化处理,敏化处理、活化处理,然后在其表面进行化学镀包覆。由本方法制备的锂离子电池复合负极材料与PC基电解液具有良好的相容性,有效地避免了PC的分解和石墨结构的剥离,其在PC基电解液中的充放电容量和循环性能良好,可作为超低温锂离子电池的负极材料。另外,本发明方法的可操作性强,重现性好,成本低,所得产品质量稳定。

    基于层级神经网络的图像-句子描述生成系统及方法

    公开(公告)号:CN108416065B

    公开(公告)日:2021-08-31

    申请号:CN201810267719.X

    申请日:2018-03-28

    Applicant: 复旦大学

    Abstract: 本发明提供基于层级神经网络的图像‑句子描述生成系统及方法,本发明提供的基于层级神经网络的图像‑句子描述生成系统包括:深度卷积网络、第一深度循环神经网络、第二深度循环神经网络;所述深度卷积网络获取图像,计算图像特征向量在嵌入空间的嵌入向量;并输出到第一深度循环神经网络和第二深度循环神经网络;所述第一深度循环神经网络识别图像中包含的物体,向第二深度循环神经网络输出物体序列;所述第二深度循环神经网络根据所述嵌入向量和物体序列输出描述所述图像的句子。

    基于自优化机制的全卷积视频描述生成方法

    公开(公告)号:CN111464881B

    公开(公告)日:2021-08-13

    申请号:CN201910047321.X

    申请日:2019-01-18

    Applicant: 复旦大学

    Abstract: 本发明具体为面向视频的跨模态视频描述生成方法。本发明包括三个主要算法部分,即视频内容理解、显著视觉信息获取、自然语言描述生成。本发明使用新型卷积神经网络为基本模型对视频数据集生产自然语言描述,而未使用传统的循环神经网络,并根据堆叠结构的特性设计全新的注意力机制,计算当前词汇与视觉表示的相关度,同时获取每个时刻最关键的视觉信息。和传统视频描述生成方法相比,本方法所关注的视觉信息更为精确,生成的自然语言描述更加准确且符合日常表达方式。这对考虑视频与文本之间的多模态信息而进行视频理解和表达具有重要意义,能够提高模型对视觉信息的理解能力,增强用户体验,在跨媒体信息理解领域具有广泛应用价值。

    基于自优化机制的全卷积视频描述生成方法

    公开(公告)号:CN111464881A

    公开(公告)日:2020-07-28

    申请号:CN201910047321.X

    申请日:2019-01-18

    Applicant: 复旦大学

    Abstract: 本发明具体为面向视频的跨模态视频描述生成方法。本发明包括三个主要算法部分,即视频内容理解、显著视觉信息获取、自然语言描述生成。本发明使用新型卷积神经网络为基本模型对视频数据集生产自然语言描述,而未使用传统的循环神经网络,并根据堆叠结构的特性设计全新的注意力机制,计算当前词汇与视觉表示的相关度,同时获取每个时刻最关键的视觉信息。和传统视频描述生成方法相比,本方法所关注的视觉信息更为精确,生成的自然语言描述更加准确且符合日常表达方式。这对考虑视频与文本之间的多模态信息而进行视频理解和表达具有重要意义,能够提高模型对视觉信息的理解能力,增强用户体验,在跨媒体信息理解领域具有广泛应用价值。

    基于多角度自注意力机制的图像-文本检索系统及方法

    公开(公告)号:CN109992686A

    公开(公告)日:2019-07-09

    申请号:CN201910134902.7

    申请日:2019-02-24

    Applicant: 复旦大学

    Abstract: 本发明属于跨模态检索技术领域,具体为基于多角度自注意力机制的图像‑文本检索系统及方法。系统包括:深度卷积网络,双向循环神经网络,图像、文本自注意力网络,多模态空间映射网络,以及多阶段训练模块;深度卷积网络用于获取图像区域特征在图像嵌入空间的嵌入向量,双向循环神经网络用于获取单词特征在文本空间的嵌入向量,两者分别输入至图像、文本自注意力网络;图像、文本自注意力网络用于获取图像关键区域的嵌入表示和句子中关键单词的嵌入表示;多模态空间映射网络用于获取图像文本在多模态空间的嵌入表示;多阶段训练模块用于学习网络中的参数。本发明在公共数据集Flickr30k和MSCOCO上取得良好结果,性能有很大提升。

    基于深度学习的跨模态主题相关性建模方法

    公开(公告)号:CN105760507B

    公开(公告)日:2019-05-03

    申请号:CN201610099438.9

    申请日:2016-02-23

    Applicant: 复旦大学

    Abstract: 本发明属于跨媒体相关性学习技术领域,具体为基于深度学习的跨模态主题相关性建模方法。本发明包括两个主要算法:基于深度词汇的多模态文档表示,融合跨模态主题相关性学习的关系主题模型建模。本发明利用深度学习技术来构造深度语义词汇和深度视觉词汇来分别描述多模态文档中的语义描述部分和图像部分。基于这样的多模态文档表示,通过构建跨模态关系主题模型来对整个多模态文档集合进行建模,从而对多模态文档的生成过程和不同模态之间的关联进行描述。本方法准确性高,适应性强。这对于在大规模多模态文档(文本加图像)基础上,考虑多模态语义信息而进行高效跨媒体信息检索具有重要的意义,能够提高检索相关性,增强用户体验,在跨媒体信息检索领域具有广泛的应用价值。

    基于迭代学习的图像描述重生成系统及方法

    公开(公告)号:CN109447242A

    公开(公告)日:2019-03-08

    申请号:CN201811176057.1

    申请日:2018-10-10

    Applicant: 复旦大学

    Abstract: 本发明为基于迭代学习的图像描述重生成系统及方法,包括:深度卷积网络、第一轮循环神经网络、知识抽取模块以及第二轮循环神经网络。深度卷积网络对图像进行细粒度的编码。第一轮循环神经网络为图像生成初步的句子描述以及视觉注意力图序列。知识抽取模块根据注意力图,利用显著性区域检测算法来生成显著性区域掩码。此外,知识抽取模块从初步生成的句子描述中提取名词序列作为图像的主题词。第二轮循环神经网络通过三种机制将显著性区域掩码和主题词融入第二轮训练,即基于显著性区域掩码的全局图像视觉表示精炼,基于主题词的多模态图像表示优化以及基于主题词的多模态注意力机制。基于上述机制,第二轮循环神经网络可生成精炼的图像描述。

    基于深度学习的手绘草图图像检索方法

    公开(公告)号:CN106126581A

    公开(公告)日:2016-11-16

    申请号:CN201610442187.X

    申请日:2016-06-20

    Applicant: 复旦大学

    CPC classification number: G06F16/583 G06K9/6223

    Abstract: 本发明属于多媒体信息检索技术领域,具体为基于深度学习的手绘草图图像检索方法。本发明利用边缘轮廓检测技术和非极大值抑制技术实现彩色图像到类草图图像的转换,然后利用深度学习技术来构造查询草图和类草图的深度特征区分性特征表示,这种深度特征融合了图像的高层语义特征和底层视觉特征;这种深度特征在草图检索中表现得更有区分性。通过深度挖掘初次检索结果的视觉信息,抑制检索结果排序靠前的不相关图像,返回更相关的结果给用户。本方法准确性高,适应性强。对于在大规模图像数据基础上,考虑草图的语义信息而进行高效的图像检索具有重要意义,能够减小手绘草图的模糊性的影响,提高检索相关性,增强用户体验,在多媒体图像检索领域具有广泛的应用价值。

Patent Agency Ranking