基于元胞自动机思想的人体行为时空联合分析方法

    公开(公告)号:CN114821769B

    公开(公告)日:2024-12-27

    申请号:CN202210329331.4

    申请日:2022-03-30

    Abstract: 本发明公开了一种基于元胞自动机思想的人体行为时空联合分析方法,首先基于元胞自动机思想将获得的人体三维骨骼姿态关键点离散化;其次,结合人体三维骨骼姿态关键点能量值以及人体骨骼关键点的位置变化,计算出人体三维骨骼姿态关键点的能量平滑值;最后构建人体时空联合分析深度网络,将人体跌倒视频逐帧提取出的三维坐标信息以及计算出的人体关键变化后能量变化的平滑值输入给构建的人体行为时空联合分析网络进行训练以进行人体姿态检测。本发明将机器视觉领域的行为分析技术从复杂的环境人体图像识别处理简化成对人体三维骨骼关键点的坐标以及人体骨骼关键点的能量变化的简单情况,减少了行为分析所需的计算机算力,有着广阔的应用场景。

    面向智慧交通的复杂多目标分层分级联合精准检测方法

    公开(公告)号:CN114842428B

    公开(公告)日:2024-12-24

    申请号:CN202210337923.0

    申请日:2022-03-31

    Abstract: 本发明提出了面向智慧交通的复杂多目标分层分级联合精准检测方法,首先构建面向单维场景的三类目标检测模型,然后根据当前时间类、天气类选择相对应的单维时间检测模型和单维天气检测模型,再将这两种模型与m3个单维目标检测模型进行分层联合检测,最后采用一种分级联合机制作为分层联合的标准,对于第一层联合,根据维度、概率这两个不同等级依次确定属于何种目标类别;对于第二层联合检测,根据符合度、概率这两个不同等级依次确定属于何种目标类别。该发明可以广泛应用于机器视觉领域中面向交通复杂多目标的分层分级联合精准检测,在保证成本的同时可以实现各类目标全天时、全天候的精准检测,有非常广阔的应用前景。

    基于新型对抗学习去模糊理论的动态人脸识别方法

    公开(公告)号:CN114783020B

    公开(公告)日:2024-10-18

    申请号:CN202210352184.2

    申请日:2022-04-03

    Abstract: 本发明公开了基于新型对抗学习去模糊理论的动态人脸识别方法,提升了生成对抗网络的训练速度,避免了找不到纳什平衡点陷入死循环的问题,利用这种新型生成对抗网络对原始模糊图片进行去模糊处理;然后对去模糊后的图片进行模糊度变化率计算,根据模糊度变化率对去模糊后的图片进行分类,对于变化率过高或过低的图片直接进行人脸识别,对于变化率不高且不低的图片添加去模糊后处理模块后再进行人脸识别;本发明采用了新型DeblurGAN_V2对图像进行去模糊操作,提出了新的训练截止方法,解决了生成对抗网络模型训练困难的问题,引入了人脸模糊度计算方法对于输出的图片分类操作,添加了去模糊后处理优化结果,有广阔的应用场景。

    基于数字孪生的复杂交通系统动态推演优化方法

    公开(公告)号:CN118762501A

    公开(公告)日:2024-10-11

    申请号:CN202410691391.X

    申请日:2024-05-30

    Inventor: 张晖 陈洋

    Abstract: 本发明公开了基于数字孪生的复杂交通系统动态推演优化方法,该方法包括:步骤1:获取城市路网的环境数据,基于这些数据建立城市路网数字孪生模型;步骤2:将整个城市的交通路网环境划分成每一维分成长度相等的正交区间,基于路网结构的特点构建交通流入流量模型;步骤3:基于交通流量模型,将车流量划分为多个子集;步骤4:构建全局演化模型,建立以概率参数、影响因素以及权重参数的全局态势推演公式;步骤5:定义一个交通态势代价损失函数,不断推演迭代,得到最优的结果;步骤6:提出交通状态的优化方式。本发明使用局部机理模型,并结合全局演化模型,准确预测和优化交通流量分配,提高路网整体运行效率,以及优化车辆行驶时间。

    一种多维决策融合的无人机集群协同决策方法

    公开(公告)号:CN118707968A

    公开(公告)日:2024-09-27

    申请号:CN202410697180.7

    申请日:2024-05-31

    Inventor: 张晖 熊宇博

    Abstract: 本发明公开了一种多维决策融合的无人机集群协同决策方法,该方法包括:步骤1:将森林场景进行区域划分,每个区域分配有侦打一体无人机组进行巡查;步骤2:利用侦打一体无人机组进行巡查,并配有摄像头、激光雷达两种外置传感器进行检测;步骤3:基于目标轮廓、位置信息对无人机不同传感器检测信息进行配准,然后基于配准后的检测数据对多无人机检测信息进行配准,构筑集群信息包;步骤4:对不同无人机、不同传感器采集到的检测信息,进行不同层次的信息融合,最终得到识别目标的信息;步骤5:建立无人机决策模型,并进行决策。本发明通过对不同时空下的多智能体采集到的信息数据进行不同层次的融合,从而做出决策,更高效、精准地完成任务。

    数模混动的无人集群类脑群智协同导航方法

    公开(公告)号:CN118643858A

    公开(公告)日:2024-09-13

    申请号:CN202410574776.8

    申请日:2024-05-10

    Abstract: 本发明公开了数模混动的无人集群类脑群智协同导航方法,该方法包括:步骤1:建立无人智能体集群的运动模型和感知模型;步骤2:利用动态窗口算法构建基于数学模型方法的导航算法;步骤3:结合长短期记忆网络,构造具有时序关联性的双延迟深度确定性梯度网络;步骤4:获取无人集群各智能体最近的障碍物坐标,对坐标集合进行密度聚类;步骤5:根据局部信息地图计算障碍物密度ρobs,结合智能体Si与障碍物的最近距离,计算动态融合权重#imgabs0#步骤6:根据动态融合权重#imgabs1#对智能体Si的决策速度进行基于数学模型方法和深度强化学习的混动融合。本发明根据环境复杂度完成两种导航算法的动态融合,进一步增强基于深度强化学习的导航算法的性能。

    分布式启发的无人集群类脑群智融合搜索围捕方法

    公开(公告)号:CN118608559A

    公开(公告)日:2024-09-06

    申请号:CN202410574822.4

    申请日:2024-05-10

    Abstract: 本发明公开了分布式启发的无人集群类脑群智融合搜索围捕方法,该方法包括:步骤1:基于Yolov5网络完成单体目标检测,并结合DeepSort算法,预测出下一帧目标出现的位置;步骤2:根据距离差和面积差映射出智能体在物理空间的导航终点坐标#imgabs0#步骤3:构建扩散收缩协调的混沌映射算法,将导航终点坐标的更新映射到分布均匀的混沌空间;步骤4:根据所有智能体的目标检测置信度决策信息与区域位置信息,融合生成搜索空间#imgabs1#的全局搜索信息#imgabs2#步骤5:根据智能体全局搜索信息,融合多智能体系统中的各类传感数据,估算目标位置信息;步骤6:根据智能体的实时位置和障碍物位置。本发明围捕效率高,能够精确更新智能体的围捕终点,完成对运动目标的包围任务。

    基于协同对抗的人体三维姿态点群智重建方法

    公开(公告)号:CN114782621B

    公开(公告)日:2024-07-02

    申请号:CN202210312695.1

    申请日:2022-03-28

    Abstract: 本发明公开了基于协同对抗的人体三维姿态点群智重建方法,首先在同一高度的两个不同位置摄像头a、b进行室内人体监控,使用Yolov5进行人体识别;采用Mediapipe框架进行人体姿态检测,并输出二维人体姿态骨骼关键点模型图;其次建立由摄像头a为主视角的三维坐标轴,根据摄像头投影矩阵将二维的骨骼关键点坐标投影到三维坐标轴内,根据骨骼关键点的编号连接三维人体骨骼关键点,获得三维人体骨骼关键点模型;最后采用基于群体智能的对抗网络进行三维人体模型图的校准。本发明能够将二维人体骨骼关键点在保留其特征的情况下由二维平面投影到三维平面,改进了二维人体关键点检测时人体特征信息不足与三维关键点检测时需要的计算机算力过高的问题。

    一种传输场景自适应的模型迁移融合定位方法

    公开(公告)号:CN118259229A

    公开(公告)日:2024-06-28

    申请号:CN202410370939.0

    申请日:2024-03-28

    Abstract: 本发明公开了一种传输场景自适应的模型迁移融合定位方法,包括:首先在标准定位场景下构建待定位点处标准RSRP模型,同时训练贝叶斯非线性回归定位模型,利用该模型输入待定位点RSRP值即可得到待定位点位置坐标;然后在新的定位场景下对标准RSRP模型进行修正,根据修正后的模型得出该场景下待定位点处RSRP值,并将其输入至贝叶斯非线性回归定位模型中得到待定位点定位结果,同时利用信号到达时间TOA定位模型进行该场景待定位点位置预测,得出定位结果;最后构建不同场景下三角形定位模型评价函数,结合定位系统稳定性系数得到贝叶斯非线性回归定位模型可信度,基于该可信度,对两个模型定位结果进行场景自适应融合,融合结果即为待定位点预测位置坐标。

    融合三重视觉匹配模型和多基站回归模型的室内定位方法

    公开(公告)号:CN114513746B

    公开(公告)日:2024-04-26

    申请号:CN202111550033.X

    申请日:2021-12-17

    Inventor: 王志坤 张晖

    Abstract: 本发明提供了融合三重视觉匹配模型和多基站回归模型的室内定位方法,首先,基站采集室内不同参考点的多角度图像,RSS与位置信息,将采集的图像和参考点位置数据上传到云端;其次,在RSS数据处理后,各基站在本地服务器训练RSS‑距离的回归模型,云端利用多角度图像以及参考点位置构建图像‑位置指纹库;最后,通过三重视觉匹配模型与多基站回归模型进行定位融合,获得最终定位结果。本发明能够采用多基站RSS‑距离模型以及多角度视觉采集数据来更好的表征室内环境,此外采用多基站RSS‑距离回归模型,三重视觉匹配模型实现融合定位,改进了单定位方法,单指纹匹配的精度不足问题,有非常广阔的应用场景。

Patent Agency Ranking