-
公开(公告)号:CN113920455A
公开(公告)日:2022-01-11
申请号:CN202111009898.5
申请日:2021-08-31
Applicant: 暨南大学
IPC: G06V20/40 , G06V20/52 , G06V10/25 , G06V10/56 , G06K9/62 , G06N3/04 , G06N3/08 , G06V10/774 , G06V10/82
Abstract: 本发明涉及一种基于深度神经网络的夜间视频着色方法,包括步骤:S1、建立目标检测神经网络模型,输入待处理的视频图像,利用目标检测算法,检测目标实例并生成裁剪的目标图像;S2、建立着色网络,通过构建两个端到端训练的骨干网络,包括实例着色网络和全图像着色网络,进行实例着色和全图像着色;再构建两个着色网络对应层级,进行端到端训练的全卷积神经网络;S3、建立融合模块,选择性地融合从实例着色网络和全图像着色网络中提取到的特征,最终获得着色后的夜间视频图像。本发明通过输入待处理的视频图像,将图像经过目标检测网络,实例图像着色和全图像着色的全卷积网络,以及融合模块的处理,最终获得着色后的夜间视频图像。
-
公开(公告)号:CN113254803B
公开(公告)日:2021-10-22
申请号:CN202110701053.6
申请日:2021-06-24
Applicant: 暨南大学
IPC: G06F16/9536 , G06F40/30 , G06F40/126 , G06F40/289 , G06K9/62 , G06N3/04 , G06N3/08 , G06Q50/00
Abstract: 本发明公开了一种基于多特征异质图神经网络的社交推荐方法,该方法包括下述步骤:提取社交网络用户和话题的多种属性信息进行编码;将用户编码信息和话题编码信息分别通过多层感知机得到各用户和话题的初始特征向量表示;以用户和话题作为节点建立异质图,输入异质图神经网络结合注意力机制在图中进行信息传递,更新特征向量表示;对用户特征向量进行相似度计算,选择与用户向量相似度最高的top‑k用户和top‑k话题进行推荐。本发明同时提取用户和话题的多种属性信息,并将用户和话题同时作为节点建立异质图,能更全面地挖掘社交信息,通过异质图神经网络进行信息传递及聚合,深度融合用户及其兴趣话题特征,提高了推荐准确性和用户体验。
-
公开(公告)号:CN112528174A
公开(公告)日:2021-03-19
申请号:CN202011361104.7
申请日:2020-11-27
Applicant: 暨南大学
IPC: G06F16/9537 , G06F16/36 , G06F40/295
Abstract: 本发明公开了一种基于知识图谱和多重匹配的地址修整补全方法及应用,该方法包括:采用分词工具对输入的地址文本数据进行分词操作,构建地址名词词典进行匹配分词,根据地名规则进行匹配重组;获取地址行政区划分数据,采用数据库管理工具构建地址知识图谱,获取地名的旧名或别名信息,将地名的旧名或别名信息在构建好的地址知识图谱中的对应的地名构建起关联;根据地址构成的特点,构建多种匹配规则进行匹配,采用对应匹配规则对地址进行修正和补全,匹配规则包括前文缺失匹配规则、重名情况下前文全缺失匹配规则、重名情况下前文相邻缺失匹配规则和旧名别名修正匹配规则。本发明实现对信息缺省甚至有误的地址进行正确高效规范的修整和补全。
-
公开(公告)号:CN112434784A
公开(公告)日:2021-03-02
申请号:CN202011138802.0
申请日:2020-10-22
Applicant: 暨南大学
Abstract: 本发明公开了一种基于多层LSTM的深度学生表现预测方法,包括以下步骤:数据预处理,预处理是对人口统计学数据根据类型进行划分,并进行One‑Hot编码,得到人口统计学序列,对点击流数据按类别进行处理,得到点击流序列,拼接后得到预处理数据;建立多层全连接层,输入人口统计学序列;建立多层LSTM结构层,输入预处理数据中的点击流序列;拼接多层全连接层与多层LSTM结构层的输出序列;建立Softmax层,将拼接后的输出序列转化为概率分布,概率大的类别为输出结果;本发明以多层LSTM结构层为基础架构,解决数据利用不全、预测效果较差问题;还引入了注意力机制,为不同输入项分配不同注意力,提高预测效果。
-
公开(公告)号:CN112417190A
公开(公告)日:2021-02-26
申请号:CN202011353549.0
申请日:2020-11-27
Applicant: 暨南大学
Abstract: 本发明公开了一种密文JPEG图像的检索方法及应用,该方法的步骤包括:获取明文图像及相应的DC系数和AC系数,对明文图像进行图像加密,在熵编码生成比特流是对比特流加密,得到加密的JPEG比特流,并在加密的JPEG比特流中提取特征;解析密文JPEG比特流提取特征,提取DC系数和AC系数的哈夫曼码直方图作为特征;构建神经网络模型,将密文图像的哈夫曼码直方图特征输入神经网络模型,并训练神经网络模型;输入待检索图像加密后的密文图,将密文图的哈夫曼码直方图特征输入到训练好的神经网络模型,输出与待检索图像相似的密文图像。本发明在提升图像检索精度的同时也保证了JPEG图像格式兼容性和加密性能。
-
公开(公告)号:CN111800786A
公开(公告)日:2020-10-20
申请号:CN202010507605.5
申请日:2020-06-05
Applicant: 暨南大学
Abstract: 本发明公开了一种基于k匿名的轨迹隐私保护方法,包括步骤:用户设备向LBS服务器申请进行注册,LBS服务器将位置缓存发送给用户设备;根据用户自身位置从位置缓存数据库中选择出多个用于对用户的真实位置进行混淆的数据,形成一个位置泛化区域;使用曼哈顿距离计算出多个假目的地;根据用户位置以及用户真实目的地、假目的地,生成包含多路径的查询集合;将查询集合发送到匿名服务器;匿名服务器将查询集合匿名转发给LBS服务器;LBS服务器根据用户的查询请求,将每个请求对应的路线均发送给用户,由用户筛选出自己需要的路线。本发明能够有效保护用户的轨迹隐私,提高用户的使用体验,降低通信开销,提供定制化的隐私保护体验。
-
公开(公告)号:CN119760120A
公开(公告)日:2025-04-04
申请号:CN202411660991.6
申请日:2024-11-20
Applicant: 暨南大学
IPC: G06F16/335 , G06F16/334 , G06N20/00 , G06F16/36
Abstract: 本发明公开了一种基于大语言模型的文本序列推荐方法及系统,属于推荐算法技术领域,包括:数据预处理阶段、大语言模型预训练阶段、序列模型微调阶段以及匹配阶段。本发明通过引入大语言模型到文本序列推荐任务,能够利用大语言模型丰富的预训练语料,更好的对文本进行建模;同时通过将文本进行序列建模,激活了大模型中对于序列推荐建模的能力,摆脱了传统推荐算法中基于ID的推荐范式,更好的在冷启动场景和知识迁移的场景下进行推荐任务学习处理;最后通过序列模型对推荐结果的最终优化,能够实现以往大语言模型输出结果存在幻觉无法精准匹配的问题。
-
公开(公告)号:CN113920455B
公开(公告)日:2024-08-06
申请号:CN202111009898.5
申请日:2021-08-31
Applicant: 暨南大学
IPC: G06V20/40 , G06V20/52 , G06V10/25 , G06V10/56 , G06N3/0464 , G06N3/047 , G06N3/08 , G06V10/774 , G06V10/82
Abstract: 本发明涉及一种基于深度神经网络的夜间视频着色方法,包括步骤:S1、建立目标检测神经网络模型,输入待处理的视频图像,利用目标检测算法,检测目标实例并生成裁剪的目标图像;S2、建立着色网络,通过构建两个端到端训练的骨干网络,包括实例着色网络和全图像着色网络,进行实例着色和全图像着色;再构建两个着色网络对应层级,进行端到端训练的全卷积神经网络;S3、建立融合模块,选择性地融合从实例着色网络和全图像着色网络中提取到的特征,最终获得着色后的夜间视频图像。本发明通过输入待处理的视频图像,将图像经过目标检测网络,实例图像着色和全图像着色的全卷积网络,以及融合模块的处理,最终获得着色后的夜间视频图像。
-
公开(公告)号:CN118410173A
公开(公告)日:2024-07-30
申请号:CN202410264937.3
申请日:2024-03-08
Applicant: 暨南大学
IPC: G06F16/36 , G06F16/35 , G06F18/214 , G06F18/2415 , G06F18/10 , G06F18/213
Abstract: 本发明公开了一种基于时序知识图谱的系统用户行为预测分析方法、系统及设备,该方法包括下述步骤:提取及组合用户行为特征,进行数据预处理;在设定的时间戳下构建动态时序知识图谱,基于关系特征提取器提取同一段时间域的多个行为关系对应的邻域特征作为目标用户在该时刻域的行为向量;构建XLnet网络模型,XLnet网络模型将动态时序知识图谱转化的行为向量输出为分布向量,在XLnet网络模型上添加Softmax层,将XLnet网络模型输出的分布向量转化为行为分类概率,通过分类概率的概率值对应得到预测行为类型。本发明在用户行为预测分析时能够更全面地考虑时间关系和语境信息,对用户行为做出更加准确的预测。
-
公开(公告)号:CN117455994A
公开(公告)日:2024-01-26
申请号:CN202311472686.X
申请日:2023-11-07
Applicant: 暨南大学
Abstract: 本发明涉及人工智能领域,尤其涉及一种相机位姿估计方法、系统、电子设备及可读介质。一种相机位姿估计方法,包括:获取第一图像和第二图像之间的初始匹配集;所述第一图像和所述第二图像为针对同一场景的不同角度的图像;基于优化网络对所述初始匹配集进行误匹配去除操作,得到优化匹配集;所述优化网络基于多阶段几何语义注意力网络构建得到;基于所述优化匹配集获取相机位姿结果。通过对误匹配的去除,使得第一图像和第二图像之间的特征匹配结果更佳精准,以此进行相机位姿估计时,结果更佳准确。
-
-
-
-
-
-
-
-
-