-
公开(公告)号:CN104022892A
公开(公告)日:2014-09-03
申请号:CN201410127538.9
申请日:2014-03-31
Abstract: 本发明公开了一种基于用户兴趣分组的网络优化的方法,包括如下步骤:节点加入过程;分组优化过程;搜索过程;退出处理。本发明通过用户兴趣进行分组,自动选出超级节点和形成兴趣组,兴趣组根据兴趣历史进行构建,无需人工分组,不仅保证了分组简单而且分组准确;在形成的兴趣分组网络中进行搜索,比在非结构化网络中更为高效和低成本,有效的抑制了网络泛洪的发生。
-
公开(公告)号:CN103942274A
公开(公告)日:2014-07-23
申请号:CN201410120529.7
申请日:2014-03-27
CPC classification number: G06F19/321 , G06F19/26
Abstract: 本发明公开了一种基于LDA的生物医疗图像的标注系统,包括LDA训练模块、主题词抽取模块、主题词精炼模块、索引上下文句子模块、上下文生成模块、标注产生模块,LDA训练模块对LDA模型进行训练;主题词抽取模块对图像的说明文字进行LDA建模并抽取主题词;主题词精炼模块对主题词集合进行优化;索引上下文句子模块索引出与主题词关联的句子集;上下文生成模块选取最密切的句子构成图像的上下文;标注产生模块对图像的上下文进行建模,通过计算选取前几个单词作为生物医疗图像的标注词。本发明同时公开了一种基于LDA的生物医疗图像的标注方法。本发明一次能生成多个标注词语,准确性高,使用关键词索引来查找相关图像,方便快捷,更符合人们文本检索习惯。
-
公开(公告)号:CN117609496A
公开(公告)日:2024-02-27
申请号:CN202311315984.8
申请日:2023-10-11
IPC: G06F16/35 , G06F16/38 , G06N3/042 , G06N3/045 , G06N3/0464 , G06N3/084 , G06N3/0985
Abstract: 本发明公开了一种基于自注意力机制图神经网络的文章分类方法,包括:构建文章的引用网络图;对于引用网络图中任意两个存在引用关系的文章节点,利用自注意力网络,计算自注意力系数;利用自注意力系数作为权重系数,通过神经网络训练出每个文章节点的新特征,并将其输入至神经网络分类器进行分类,得到分类结果并计算误差,利用梯度下降法优化神经网络模型的参数。本发明还公开了一种基于自注意力机制图神经网络的文章分类系统。本发明创造性地融合了自然语言处理领域常用的自注意力机制和图神经网络的卷积思想,将具备两种特征的图神经网络运用在学术文章分类任务中,使得该领域的科研人员更快捷精确地检索学术文章,提高了检索效率。
-
公开(公告)号:CN103942274B
公开(公告)日:2017-11-14
申请号:CN201410120529.7
申请日:2014-03-27
Abstract: 本发明公开了一种基于LDA的生物医疗图像的标注系统,包括LDA训练模块、主题词抽取模块、主题词精炼模块、索引上下文句子模块、上下文生成模块、标注产生模块,LDA训练模块对LDA模型进行训练;主题词抽取模块对图像的说明文字进行LDA建模并抽取主题词;主题词精炼模块对主题词集合进行优化;索引上下文句子模块索引出与主题词关联的句子集;上下文生成模块选取最密切的句子构成图像的上下文;标注产生模块对图像的上下文进行建模,通过计算选取前几个单词作为生物医疗图像的标注词。本发明同时公开了一种基于LDA的生物医疗图像的标注方法。本发明一次能生成多个标注词语,准确性高,使用关键词索引来查找相关图像,方便快捷,更符合人们文本检索习惯。
-
公开(公告)号:CN104158871A
公开(公告)日:2014-11-19
申请号:CN201410391966.2
申请日:2014-08-11
Abstract: 本发明实施例公开了一种移动P2P网络资源的定位方法基于迭代的图像文本区域检测方法,该方法包括:生成、维护和管理资源索引信息置信度RIC;建立基于资源索引信息置信度和扩散路径的动态网络连通结构;直连发布资源索引信息;扩散资源索引信息;建立基于资源索引信息的路由。在本发明实施例中,使得移动P2P网络中的节点在共享过程中可以方便、快速地定位到其他节点,并实现就近连接与共享机制,节省移动节点因需要发现对方以及与远距离移动节点之间的数据通信造成的无线资源大量浪费;可以对资源的定位过程提供良好的支持,指明定位的方向,定位算法简单并且转发次数少,对网络的动态适应性和结点本身的能力受限问题都具有很好的适应能力。
-
公开(公告)号:CN119445026A
公开(公告)日:2025-02-14
申请号:CN202411500622.0
申请日:2024-10-25
Applicant: 中山大学
IPC: G06T17/20 , G06N3/0464 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于占用网格的智慧空间点云三维重建方法与系统。包括:输入开源点云,经过点云卷积模块,得到潜在向量,将点云p的包围盒分割得到查询点;对每一查询点,输入潜在向量和查询点,经过相对编码,得到相对潜在向量,将相对潜在向量输入注意力权重模块,得到特征编码,将特征编码进行低维特征解码,得到查询点的占用率;将占用率为预定义数值的查询点提取出来得到等值面,将等值面用行进立方体建模算法得到所需三维模型。本发明能够摆脱现有方法对点云的法向量的依赖以减少计算和使用成本、提升复杂物体或场景的建模效果并增加方法的可扩展性使其可以应用在多种场景中。
-
公开(公告)号:CN119168911A
公开(公告)日:2024-12-20
申请号:CN202411194314.X
申请日:2024-08-28
Applicant: 中山大学
IPC: G06T5/73 , G06T5/60 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于雾霾定位和解纠缠的图像去雾方法与系统。构造训练数据与去雾网络,去雾网络包括编码器、雾霾定位模块、解纠缠模块、解码器;雾霾定位模块用于输出区域可辨性的雾霾相关特征信息,解纠缠模块用于指导去雾网络的训练;设计损失函数并利用训练数据对去雾网络进行训练,形成训练好的去雾网络;使用无参考图质量评价指标对所述训练好的去雾网络进行测试,当性能良好时固定网络参数形成最终的去雾网络。本发明引入雾霾定位模块和解纠缠模块,能够实现多种类型雾霾的去除,相比于现有图像去雾方法,在去雾质量评价、去雾稳定性,去雾准确性,去雾快速性方面具有明显的优势,复原的无雾图像更加自然。
-
公开(公告)号:CN118394295A
公开(公告)日:2024-07-26
申请号:CN202410474923.4
申请日:2024-04-19
Applicant: 中山大学
IPC: G06F3/147 , G06V40/20 , G06V40/18 , G06T7/13 , G06T7/136 , G06T7/33 , G06T7/73 , G06F3/01 , A47G1/02
Abstract: 本发明公布了一种实时显示后背画面的图像处理方法,包括:在相机观测到人体后,对用户相对于显示镜的位置信息进行收集并处理,输出人体距离屏幕的距离;利用人体距离屏幕的距离,调用摄像头对人体后背特征值进行动态提取,拟合用户眼部高度,从而确定摄像头的具体位置;利用摄像头获取用户后背图像数据,通过人体后背识别算法进行人体后背轮廓识别后填充,得到处理完成的画面信息并传输给显示镜,通过屏幕展示处理好的后背信息画面。本发明还公布了一种实时显示后背画面的图像处理系统。本发明利用简单的设备组合和使用,解决了用户在“面对智能镜组”时难以实时获取后背画面的问题,具有重要的生产价值和应用空间。
-
公开(公告)号:CN116719941A
公开(公告)日:2023-09-08
申请号:CN202310774073.5
申请日:2023-06-27
Applicant: 中山大学
IPC: G06F16/35 , G06F18/23213 , G06F18/213 , G06F40/289
Abstract: 本发明公开了一种基于数据聚类识别虚假新闻的方法。包括:采集媒体上的新闻数据,形成一个包含真实新闻与虚假新闻的新闻数据集;提取前述新闻数据集中每个新闻的传播特征,生成每个新闻的传播特征向量;利用前述每个新闻的传播特征向量,对新闻数据集进行聚类,生成虚假新闻识别模型;将待检测新闻数据输入到前述虚假新闻识别模型中,输出新闻的真实性得分。本发明还公开了一种基于数据聚类识别虚假新闻的系统。本发明借助虚假新闻的传播特征构造相应的向量和模型,较传统的内容特征,传播特征容易量化、数量较少,存在稳定,因而本发明较其他发明成本低、效率高、识别更加稳定,能够实现跨模态、跨语言的虚假新闻检测。
-
公开(公告)号:CN108230278B
公开(公告)日:2021-08-06
申请号:CN201810157009.1
申请日:2018-02-24
Applicant: 中山大学
IPC: G06T5/00
Abstract: 本发明实施例公开了一种基于生成对抗网络的图像去雨滴方法。该方法主要通过构建生成对抗网络,利用深度去雨算法,提供一种更加高效显著的图像去雨方法,在实际使用中只需要把图片输入生成式网络中,通过一次前向传播即可得到结果图片,相比起传统的图像处理方法会有更高效的效果,此外,在模型中引入特征空间上的感知相关性,可以调整部分去雨效果的细节,使得生成的图像更加清晰直观,在图像增强方面可以提供更好的效果。
-
-
-
-
-
-
-
-
-