-
公开(公告)号:CN118297108A
公开(公告)日:2024-07-05
申请号:CN202410392585.X
申请日:2024-04-02
Applicant: 华南理工大学
Abstract: 本发明提出了一种用于快速域适应的弹性记忆网络的训练方法,解决了传统深度神经网络难以解决的快速的无监督域适应问题。弹性记忆网络是一种稀疏连接与稠密连接相结合的网络。源域训练过程中,特征以类似脉冲的形式传播,节点学习在每个类别下的特征的分布。同时网络能够根据特征分布扩展优秀节点,淘汰不良节点。网络的分类决策基于各节点的决策给出。在目标域训练阶段,本发明能够使用目标域的无标签样本执行特征分布的更新,快速拟合目标域的特征分布。本发明不需要使用基于梯度的反向传播算法进行优化,能够在大大减少时间成本的同时取得较众多机器学习算法更高的准确率,使其十分适合部署于轻量级边缘设备。
-
公开(公告)号:CN118261250A
公开(公告)日:2024-06-28
申请号:CN202410392583.0
申请日:2024-04-02
Applicant: 华南理工大学
Abstract: 本发明公开了一种融合聚类信息的异质图推荐方法,该方法包括步骤如下:依据推荐系统中用户与物品各自的属性信息对用户与物品分别进行聚类;然后,通过用户对物品的历史评分信息以及用户和物品各自的属性信息来构建用户‑物品的异质图结构;接下来,使用异质图聚合器来提取用户节点与物品节点的特征;最后,使用节点特征为用户生成推荐列表。本发明扩展并增强了基于异质图神经网络的推荐方法中节点的嵌入向量,能够有效缓解现有推荐方法在面对数据稀疏与冷启动时推荐性能下降的问题。
-
公开(公告)号:CN118230387A
公开(公告)日:2024-06-21
申请号:CN202410406502.8
申请日:2024-04-07
Applicant: 华南理工大学 , 广州医科大学附属妇女儿童医疗中心
IPC: G06V40/16 , G06V10/764 , G06V10/82 , G16H30/40 , G16H50/30 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于可解释性原型的术后儿童疼痛识别方法,旨在通过人脸五官位置的相似性比对提升术后儿童疼痛检测的可解释性。首先,从术后儿童疼痛视频提取出每帧图片的面部表情帧和稀疏光流帧。接着,用ResNet卷积网络提取出人脸五官位置的特征向量,通过最小化损失函数来优化随机初始化的原型向量。然后,计算出特征向量和原型向量的相似度,通过全连接网络得到每帧图片的疼痛等级识别结果。最终,对特征向量对应的人脸五官位置和原型向量对应的人脸五官位置,进行可视化对比。本发明通过展示人脸五官位置在面部表情和稀疏光流上的相似度,提升了术后儿童疼痛识别过程的可解释性,有助于医疗专业人员更好地理解自动疼痛识别结果。
-
公开(公告)号:CN117038055A
公开(公告)日:2023-11-10
申请号:CN202310822147.8
申请日:2023-07-05
Applicant: 广州市妇女儿童医疗中心 , 华南理工大学
IPC: G16H50/20 , G06V20/40 , G06V40/16 , G06V10/50 , G06V10/762 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/044 , G06N3/042 , G06N3/045 , G06N3/08 , G10L25/18 , G10L25/24 , G10L25/30
Abstract: 本发明公开了一种基于多专家模型的疼痛评估方法、系统、装置及介质,通过获取目标对象疼痛时期的视频数据;对视频数据进行抽帧提取,通过预处理得到多模态输入数据序列;将多模态输入数据序列输入预设神经网络,并进行初步预训练,得到各个模态的预训练模型;通过各模态预训练模型,对多模态输入数据序列中对应模态的数据进行分析,获得各模态的特征空间;在特征空间下对训练数据进行聚类,获得若干聚类结果;基于预训练模型设置专家模型,以聚类结果作为各专家的训练样本,进行多专家训练,获得目标评估模型;通过目标评估模型对待评估数据序列进行分析,并通过加权求和,得到目标疼痛分数。本发明能够提升疼痛识别的准确性,可广泛应用于数据处理技术领域。
-
公开(公告)号:CN116311043A
公开(公告)日:2023-06-23
申请号:CN202310167535.7
申请日:2023-02-27
Applicant: 华南理工大学
IPC: G06V20/52 , G06V20/40 , G06V10/762 , G06V10/82
Abstract: 本发明公开了一种针对AIS和港口视频监控的对齐方法,包括以下步骤:基于透视变换原理,人工标定4组监控画面坐标和AIS记录中经纬度坐标对应点,建立监控画面坐标和经纬度坐标的低精度映射关系;使用深度学习目标检测模型,检测出监控视频中船只,生成船只检测框;将AIS记录中的船只经纬度坐标点通过低精度映射关系映射到监控视频画面中,生成船只先验框;利用KM算法,实现船只检测框与船只先验框的匹配,得到匹配对的集合;使用梯度下降的优化方法,根据匹配对集合,进一步优化低精度映射关系,建立监控画面坐标和经纬度坐标高精度的映射关系。本发明可以在监控相机参数未知的情况下,建立AIS和港口视频监控之间精确的映射关系。
-
公开(公告)号:CN112528756B
公开(公告)日:2023-06-23
申请号:CN202011316377.X
申请日:2020-11-20
Applicant: 华南理工大学
IPC: G06V20/52 , G06V10/74 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于异构图的无监督行人重识别方法,包括以下步骤:获取行人图像并划分行人图像为训练集行人图像和测试集行人图像;对训练集行人图像构建一个摄像头相关的异构图;执行基于异构图的异构相似度传播,进而高效地从异构图中挖掘出顶点与顶点之间的空间相似性;利用异构相似度学习对卷积神经网络模型进行优化;利用优化完毕的卷积神经网络模型在测试集行人图像进行重识别。本发明方法在无监督的基础上,充分考虑了行人图像的异构性,从而有效克服了传统无监督学习方法无法充分考虑无标签行人图像之间的复杂拓扑结构的缺陷。
-
公开(公告)号:CN112381024A
公开(公告)日:2021-02-19
申请号:CN202011313048.X
申请日:2020-11-20
Applicant: 华南理工大学
Abstract: 本发明公开了一种融合多模态的无监督行人再识别重排方法,该方法包括以下步骤:收集行人在行走过程中的多模态信息;利用卷积神经网络模型抽取行人特征,计算视觉相似度;利用图像时空信息,构建图像时空分布;利用WiFi信息,构建WiFi时空分布;融合视觉相似度,图像时空分布和WiFi时空分布,对行人重识别的排序结果进行重排。本发明方法综合了多模态信息进行二次重排,是一种降低搜索空间的有效措施,有效克服了传统的基于视觉特征的行人重识别方法对监控环境敏感的缺陷。
-
公开(公告)号:CN105791886B
公开(公告)日:2018-10-09
申请号:CN201610121201.6
申请日:2016-03-03
Applicant: 华南理工大学
IPC: H04N21/231 , H04N21/433 , H04N21/845 , H04L29/06 , H04L29/08
Abstract: 本发明公开了一种支持细粒度数据分片的无线流媒体视频服务系统,包括流媒体服务器和移动终端。本发明还公开了一种应用于所述支持细粒度数据分片的无线流媒体视频服务系统的方法,包括以下步骤:步骤1、流媒体服务器对编码后的流式视频数据进行细粒度分片存储,并监听请求;步骤2、流媒体服务器维护在线移动终端信息;步骤3、移动终端进行节点维护、请求视频数据,并缓存到本机和缓存共享;步骤4、移动终端将缓存的视频数据传输给本机的解码器进行解码播放。本发明具有能够在无线网络不稳定、传输延迟大的情况下快速响应用户的播放请求以及满足用户随时随地观看和发布视频的需求等优点。
-
公开(公告)号:CN108615452A
公开(公告)日:2018-10-02
申请号:CN201810286122.X
申请日:2018-04-03
Applicant: 华南理工大学
IPC: G09B29/00
Abstract: 本发明公开了一种基于人车轨迹点多分辨率处理的未知道路提取方法,步骤如下:S1、将每个轨迹点根据经纬度映射到二维网格中,从而将轨迹点转变为图像表示;S2、对步骤S1中获得的图像,进行采样以降低分辨率;S3、对步骤S2中获得的图像,进行去噪,并剔除孤立像素点;S4、对步骤S3中获得的图像,进行形态学处理;S5、对步骤S4中获得的图像,进行重新去噪并再一次降低分辨率;S6、对步骤S5中获得的图像,识别路段,并标记路段与路段之间的交汇点;S7、对步骤S6中获得的结果,将每条路段视为图节点,将路段交汇点视为节点之间的连边,对图结构进行深度优先遍历,对路段进行编号。
-
公开(公告)号:CN108491138A
公开(公告)日:2018-09-04
申请号:CN201810039716.0
申请日:2018-01-16
Applicant: 华南理工大学
IPC: G06F3/0484 , G06F3/0487 , G06K9/00
Abstract: 本发明公开了一种基于多传感器融合的移动屏幕自适应调整方法,特别涉及一种通过融合多传感器数据,在运动环境下自适应调整移动终端显示屏幕,缓解用户视觉疲劳的方法。该方法首先通过采集加速度传感器数据和采集视觉传感器人脸位置数据;然后,加速度数据处理器计算出位移估算值,接着,视觉位置数据处理器计算出移动终端相对人脸位移;融合处理器融合位移估算值和移动终端相对人脸位移,计算得出屏幕调整偏移量;最后,屏幕融合调整器根据屏幕调整偏移量进行动态反向屏幕调整。该发明通过实时采集多传感器数据并处理,动态调整移动终端屏幕显示内容的位置,以减少人眼的频繁变焦,优化移动交互体验。
-
-
-
-
-
-
-
-
-