-
公开(公告)号:CN117201607A
公开(公告)日:2023-12-08
申请号:CN202311156604.0
申请日:2023-09-07
Applicant: 华中师范大学
IPC: H04L67/5682 , H04L47/32 , H04L47/70
Abstract: 本发明公开了一种基于消息散播率的缓存管理策略,包括以下步骤:S1、将整个地图划分为不同的区域,建立地图模型;S2、根据消息经历的跳数、消息进入缓存队列的时间长度、节点剩余缓存空间大小和消息大小计算出消息保存率;S3、建立消息模型,根据消息模型中链表信息,计算消息的移动熵;S4、根据消息移动熵和消息保存率计算出消息散播率;S5、将节点的缓存队列划分为保护队列和普通队列,根据消息散播率和划分的队列执行不同的转发策略和消息丢弃策略。本发明通过对消息转发所经过的区域进行研究,计算得到消息移动熵来评估消息扩散程度。同时划分缓存队列,根据消息进入队列的时长将其放入不同队列中,提高了算法的整体性能。
-
公开(公告)号:CN117014388A
公开(公告)日:2023-11-07
申请号:CN202311049579.6
申请日:2023-08-18
Applicant: 华中师范大学
IPC: H04L47/6295 , H04L47/32 , H04L49/90
Abstract: 本发明公开了一种基于目的节点社交路径改进的Spray and Wait缓存管理方法,包括:S1、将成功转发到该节点的消息经过的节点存储在成功路径节点表中,并构建核心路径集合和广泛路径集合;S2、根据消息的目的节点的核心路径集合、广泛路径集合和两个相遇节点的关系,选择更有可能将消息转发到目的节点的节点作为消息的中继节点;S3、定义消息队列,根据消息的目的节点的核心路径集合以及广泛路径集合和消息携带节点的关系,将消息分别划分到对应队列中;S4、定义消息的效用值,在缓存溢出时结合消息所在的队列以及消息的优先级,选择丢弃优先级低的消息。本发明的方法提高了消息投递成功率的同时,降低了网络负载、平均时延。
-
公开(公告)号:CN118631772A
公开(公告)日:2024-09-10
申请号:CN202410645537.7
申请日:2024-05-23
Applicant: 华中师范大学
IPC: H04L49/9005 , H04L41/14 , H04L41/147 , H04L41/142 , H04L45/00
Abstract: 本发明公开了一种一种基于节点强弱社交关系变化预测的缓存管理方法,包括:S1、根据节点的历史相遇频率阈值,将节点的社交关系划分为强社交关系和弱社交关系;S2、周期性的统计相遇的节点,计算相邻两个时间窗口社交关系变化情况,并采用加权平均方法计算社交关系预测变化率;S3、划分消息类型,并根据社交关系变化率、消息存储时间、跳数和剩余生存时间评估消息的价值量;S4、将消息队列逻辑上划分为受保护的缓存队列、限制删除的缓存队列、可丢弃消息的缓存队列,并根据消息的价值量排名分配依次分配到不同的队列中。本发明通过对节点的社交关系变化情况进行研究,对缓存队列多级划分,合理分配缓存资源,降低了网络负载,提高网络的整体性能。
-
公开(公告)号:CN118612149A
公开(公告)日:2024-09-06
申请号:CN202410645536.2
申请日:2024-05-23
Applicant: 华中师范大学
Abstract: 本发明公开了一种基于消息质量状态的缓存管理方法,包括:S1、引入消息容忍度表示节点剩余缓存空间状态;S2、引入节点剩余缓存率对消息转发的影响,优先删除平均转发概率最小的消息;S3、结合消息跳数和剩余生存时间定义消息丢弃值,优先删除丢弃值最大的消息;S4、设计消息调度机制,获取缓冲区中首个大于阈值的消息,获取该消息的跳数即为消息门限值,若新消息的跳数小于门限值,则按照消息丢弃值降序排序,否则按照消息平均转发概率升序排序;S5、评估消息留存质量,留存质量高的消息位于队首,优先转发调度机制中留存质量最高的消息,丢弃留存质量最低的消息。本发明有效改善了缓存拥塞情况,在消息投递率和网络开销方面具有明显的提升效果。
-
公开(公告)号:CN118555627A
公开(公告)日:2024-08-27
申请号:CN202410645535.8
申请日:2024-05-23
Applicant: 华中师范大学
Abstract: 本发明公开了一种基于深度Q网络的移动车载路由方法,包括:S1、模拟设置VANET环境,实现了与现实交通流动高度一致的动态元素;S2、定义状态空间,在VANET环境的模拟中,采用动态交通仿真与评估方法进行建模;S3、定义动作空间,将智能体在各种环境状态下的行动选择设置为有限的离散选项,构成智能体的动作空间;S4、设计奖励函数,并在奖励函数中引入常数N;S5、定义Q神经网络,将状态空间和动作空间作为Q神经网络的输入,采用Q神经网络对智能体进行训练,并输出一个标量;S6、使用经验回放法维护一个经验回放缓冲区,从中随机采样部分数据进行训练。本发明显著增强了智能体的数据投递性能,并提高了数据样本的使用效率。
-
-
-
-