-
公开(公告)号:CN110083743A
公开(公告)日:2019-08-02
申请号:CN201910243356.0
申请日:2019-03-28
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F16/901 , G06F16/903
Abstract: 本发明提供了一种基于统一采样的快速相似数据检测方法,包括以下步骤:A、基于滑动窗口算法快速计算哈希集合;B、对计算得出的哈希集合进行快速统一采样;C基于采样后的哈希集合,再提取相似性特征值和超级特征值用于相似性匹配查找。本发明的有益效果是:在保持原有的相似性检测效率的前提下,通过快速滑动哈希计算,以及通过统一采样方法大幅度地减少了需要线性变换的指纹数量,从而简化了后面的提取特征值和超级特征值的计算,最终大幅度提升相似数据检测速度,以实现面向大规模存储系统的快速高效的相似数据检测效果。
-
公开(公告)号:CN109981110A
公开(公告)日:2019-07-05
申请号:CN201910164475.7
申请日:2019-03-05
Applicant: 哈尔滨工业大学(深圳)
IPC: H03M7/40
Abstract: 本发明提供了一种带有逐点相对误差界限的有损压缩的方法,包括以下步骤:A、制表,根据误差要求以及量化因子的区间来制表;B、获取量化因子;C、哈夫曼编码,通过哈夫曼编码来压缩步骤B中生成的量化因子序列;D、使用无损压缩方法,使用无损压缩方法来压缩步骤C生成的哈夫曼编码和哈夫曼树。本发明的有益效果是:可以避免带有逐点相对误差界限的有损压缩中耗时的对数变换,并通过查表来获取量化因子值,极大地加速了带有逐点相对误差界限的有损压缩。
-
公开(公告)号:CN116302656B
公开(公告)日:2023-11-03
申请号:CN202310301859.5
申请日:2023-03-13
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F11/07
Abstract: 本申请实施例公开了智能内存隔离方法以及相关设备,用于保证内存的正常运行。本申请实施例方法包括:获取内存中的内存错误地址;基于所述内存错误地址的行列信息,判断是否存在所述内存错误地址的关联错误地址;若存在所述关联错误地址,则对所述内存错误地址以及所述关联错误地址执行内存隔离流程。
-
公开(公告)号:CN116126732A
公开(公告)日:2023-05-16
申请号:CN202310253592.7
申请日:2023-03-08
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F11/36
Abstract: 本申请实施例提供了一种计算机故障定位方法和计算机,用于降低计算机故障定位的开销,包括:使用预设算法在目标代码中确定插桩点,在插桩点设置插桩程序;监控计算机功能模块,获得并存储采集数据;使用异常检测算法对采集数据进行分析,若存在异常则生成异常告警;若生成异常告警,则运行插桩程序,以定位目标代码中的漏洞bug。针对函数级异常,在目标代码中确定插桩点,设置插桩程序。在生成异常告警后,运行插桩程序,对目标代码的运行进行监控,以快速定位目标代码中的漏洞。只在发生异常时运行插桩程序,相比于插桩程序随主程序运行的现有技术,可以减小运行插桩程序带来的开销。
-
公开(公告)号:CN114048833B
公开(公告)日:2023-01-17
申请号:CN202111303688.7
申请日:2021-11-05
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明公开了一种基于神经网络虚拟自我对局的多人、大规模非完全信息博弈方法及装置,本发明在传统的神经网络虚拟自我对局NFSP算法的基础上引入了优先级经验采样机制和优先级加权的程度控制机制,根据经验片段的学习价值设置优先级来过滤记忆库中的经验,对于优先经验的存储和采样,采用求和树的数据结构,以时间复杂度实现优先级经验采样,降低NFSP训练过程中与环境交互的代价,加快求解速度;同时使用马尔科夫决策过程对扩展式博弈进行建模,将多人博弈转化成单个智能体与环境的交互过程,可看作单个智能体和环境的二人博弈,将NFSP的应用范围拓展至多人博弈,增强算法的泛用性。
-
公开(公告)号:CN113076068B
公开(公告)日:2022-10-21
申请号:CN202110460957.4
申请日:2021-04-27
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本申请公开了一种数据存储方法、装置、电子设备及计算机可读存储介质,该方法包括:获取并拆分目标数据,得到多个目标数据块;判断目标数据块中是否存在已经被存储的重复数据块;若存在重复数据块,则将各个重复数据块分别从源数据容器迁移至若干个第一新增容器中存储,并将目标数据块中的非重复数据块存入第二新增容器;若不存在重复数据块,则将目标数据块存入第三新增容器;建立新增容器与目标数据之间的目标容器对应关系;该方法在进行数据存储时,将各个数据块按照其生命周期进行排列;在进行数据读取时,可以只读出需要的数据块而不附带任何其他数据,避免出现读放大现象,提高了数据读取速度。
-
公开(公告)号:CN113947022B
公开(公告)日:2022-07-12
申请号:CN202111220714.X
申请日:2021-10-20
Applicant: 哈尔滨工业大学(深圳)
IPC: G06F30/27 , G06V20/40 , G06K9/62 , G06V10/774 , G06V10/764 , G06N20/00
Abstract: 本发明公开了一种基于模型的近端策略优化方法,包括步骤:获取模拟环境,并确定所述模拟环境对应的环境模型和策略网络;基于所述策略网络与所述模拟环境,确定状态数据;其中,所述状态数据包括所述模拟环境的视频序列帧;基于所述模拟环境的视频序列帧训练所述环境模型,得到已训练的环境模型输出的预测图像;基于所述预测图像,更新所述状态数据,得到更新的状态数据;基于所述更新的状态数据,更新所述策略网络,得到更新的策略网络。融合基于模型的深度强化学习算法,提出了基于模型的近端策略优化框架,较好的解决了非完全信息博弈环境下采样利用率低的问题,在提高采样率的同时提升训练速度。
-
公开(公告)号:CN114048834A
公开(公告)日:2022-02-15
申请号:CN202111303694.2
申请日:2021-11-05
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明公开了一种基于事后回顾和渐进式扩展的持续强化学习非完全信息博弈方法及装置,包括下述步骤:获取非完全博弈环境,确定任务目标;构建第一神经网络和基于未来值预测的强化学习方法;构建事后经验回顾池;对第一神经网络进行训练,直至第一神经网络收敛;构建渐进式神经网络,实现网络模型的渐进式扩展;选择下一个任务作为任务目标,利用基于未来值预测的强化学习方法持续训练,直至所有的任务都训练完成。本发明通过使用非完全信息博弈场景中丰富的智能体状态变化作为监督信号,解决该环境下的奖励稀疏问题,同时引入持续学习框架渐进式神经网络对未来值预测网络结构进行动态扩展,解决了在该环境下的多任务场景中的灾难性遗忘的问题。
-
公开(公告)号:CN110399920B
公开(公告)日:2021-07-27
申请号:CN201910676439.9
申请日:2019-07-25
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明提供了一种基于深度强化学习的非完备信息博弈方法、装置、系统及存储介质,该方法包括:探索利用机制改进策略梯度算法的步骤、深度强化学习网络中加入记忆单元的步骤、自我驱动机制对奖励值进行优化的步骤。本发明的有益效果是:本发明通过基线函数解决策略梯度算法经常出现的高方差问题,对于强化学习采样和优化过程时间复杂度高的问题,采取并行机制提高模型求解效率,通过自驱动机制,在弥补环境奖励值稀疏的同时,帮助智能体更有效地对环境进行探索。
-
公开(公告)号:CN112054805A
公开(公告)日:2020-12-08
申请号:CN202010961326.6
申请日:2020-09-14
Applicant: 哈尔滨工业大学(深圳)
IPC: H03M7/30
Abstract: 本发明实施例提供了一种模型数据压缩方法、系统及相关设备,用于节约网络传输资源,提高模型数据压缩率。本发明实施例方法包括:计算目标模型与参考模型中的同种类型参数之间的差量数据;采用预设压缩算法对所述差量数据进行压缩得到目标压缩文件;将所述目标压缩文件发送给目标终端设备,以使得所述目标终端设备根据所述差量数据以及本地存储的所述参考模型恢复所述目标模型。
-
-
-
-
-
-
-
-
-