基于YOLOv7的无人机与无人车跨域协同跟踪控制方法

    公开(公告)号:CN119717874A

    公开(公告)日:2025-03-28

    申请号:CN202411626217.3

    申请日:2024-11-14

    Abstract: 本发明公开了基于YOLOv7的无人机与无人车跨域协同跟踪控制方法,包括:由用户控制无人车搭载无人机至指定地点;由无人机实时采集的视频流,提取其中帧图像,并对帧图像处理以得到输入图像;将输入图像输入至预先训练完成的YOLOv7网络模型中,以获取输入图像中所有的目标信息;用户能够指定目标信息,对非用户指定的目标进行障碍物判定。根据输入图像中的目标信息,系统实时更新路径以躲避障碍物并持续跟踪指定目标。由用户下达结束跟踪并降落指令,无人机在输入图像中寻找无人车目标信息,跟踪并降落于无人车上。本发明能够在复杂和动态环境中稳定运行,确保可靠的目标跟踪,有效实现无人机与无人车之间的互补,充分利用各自的优势,提升整体系统性能。

    融合贴合度属性的三维服装变形预测方法及装置

    公开(公告)号:CN118364716A

    公开(公告)日:2024-07-19

    申请号:CN202410530293.8

    申请日:2024-04-29

    Abstract: 本发明公开一种融合贴合度属性的三维服装变形预测方法及装置,能够实现各种服装网格在任意姿势下的着装效果,并能直接产生具有精细细节和逼真效果的复杂服装动画,在泛化性能和变形质量方面优于现有的服装动画方法,兼顾变形效果及效率,具有显著应用价值。方法包括:(1)创建一个数据集,该数据集由服装、身体体型和动画姿势组成,用于训练和测试;(2)通过观察影响变形质量的参数,生成适合参数作为网络输入之一,以针对服装的不同适合度产生真实的变形;(3)通过将每个顶点的输出向量分解为幅度和方向来进行输出重建;(4)粗变形预测;(5)细尺度褶皱的详细变形。

    基于物理信息图神经网络的室内温度场预测方法及系统

    公开(公告)号:CN120068656A

    公开(公告)日:2025-05-30

    申请号:CN202510240784.3

    申请日:2025-03-03

    Abstract: 本文提供了一种基于物理信息图神经网络的室内温度场预测方法及系统,方法包括:利用温度场仿真模型,获取基于预设时间间隔的多个室内流场数据;对室内的流场数据进行图结构转化,得到多个图结构数据;利用图神经网络模型中的编码器对每个图结构数据进行特征提取,获取每个图结构数据中节点和边的特征向量;利用图神经网络模型中的处理器对多个图结构数据中节点和边的特征向量进行动态特征处理,得到室内流场的时空动态变化数据;利用图神经网络模型中的解码器对室内流场的时空动态变化数据进行映射处理,以得到室内下一时刻的温度变化情况,本文能提高室内温度场预测的准确性。

    一种基于物理感知深度学习的布料仿真方法及装置

    公开(公告)号:CN118940596A

    公开(公告)日:2024-11-12

    申请号:CN202410957177.4

    申请日:2024-07-17

    Abstract: 本文提供了一种基于物理感知深度学习的布料仿真方法及装置,方法包括:获取蒙皮的3D人物模型的运动动作参数;将运动动作参数通过解耦描述符转换成静态描述符和动态描述符;通过编码器分别对静态描述符和动态描述符进行编码处理,得到静态潜在变量和动态潜在变量,并进行相加,等到编码后的特征向量;通过解码器对特征向量进行解码处理,得到3D人物模型的局部布料的变形状态;通过基于物理仿真的损失函数对网络模型进行训练,使得网络学习满足布料和人体的物理约束,并输出布料状态的预测结果。本文旨在利用基于物理仿真的损失函数,使网络学习满足布料和人体的物理约束,实现对布料动态的准确预测。

    基于深度相机与YOLOv8模型的实时人体姿态三维重建方法

    公开(公告)号:CN118823228A

    公开(公告)日:2024-10-22

    申请号:CN202410704825.5

    申请日:2024-06-03

    Abstract: 本发明公开了基于深度相机与YOLOv8模型的实时人体姿态三维重建方法,包括以下步骤:S1:使用深度相机实时获取数据流。S2:使用深度学习的方法检测人体姿态并提取关键位置点信息。S3:预处理关键位置点检测张量数据及参考墙面和地板的建模。S4;生成点云并根据点云的信息进行人体姿态的三维重建与渲染。本发明通过结合深度相机和先进的YOLOv8算法模型,展示了在实时人体姿态三维重建技术方面的显著成就。该方法能够高效地采集并处理图像信息,精确执行人体姿态检测和关键位置点提取,确保了实时性和高精度重建的同时,还特别强调了生成墙面和地面策略的创新,极大地增强模型在复杂环境下的适应性和稳定性。

    一种协同编队的多智能车辆避障方法及装置

    公开(公告)号:CN118012056A

    公开(公告)日:2024-05-10

    申请号:CN202410108521.2

    申请日:2024-01-25

    Abstract: 本发明涉及一种协同编队的多智能车辆避障方法及装置,包括,当车辆编队中的多个智能车辆检测到障碍物时,分别控制每一避障车辆获取各自检测到的所述障碍物的位姿信息;分别计算每一避障车辆的位姿信息与相应障碍物的位姿信息之间的距离信息;根据距离信息计算该避障车辆与相应障碍物之间的梯度值;分别根据每一避障车辆与相应障碍物之间的距离信息以及自身避障车辆的感知范围,计算避障车辆与相应障碍物之间的排斥作用函数值;根据多个避障车辆对应的距离信息、梯度值以及排斥作用函数值分别计算每一避障车辆的控制参数;根据控制参数控制相应避障车辆的运动状态。通过本发明的方法,实现了车辆编队协同避障,提高了车辆编队整体的鲁棒性。

    基于稠密图注意力网络的人体非线性变形方法

    公开(公告)号:CN117392291A

    公开(公告)日:2024-01-12

    申请号:CN202311234215.5

    申请日:2023-09-24

    Abstract: 本发明公开了基于稠密图注意力网络的人体非线性变形方法,该方法包含基于注意力机制的图注意力模块和注意力层多级跳连模块两个嵌套子模块。其中,基于注意力机制的图注意力模块由聚合流和自增强流组成,以聚合相邻节点的特征并增强单个图节点的特征。注意力层多级跳连模块是在一组图注意力模块之间引入了一种多级跳连连接模式,能够减少学习大量网格特征的复杂度,确保在深度框架中特征的传播稳定性。当输入一个基于线性变形图的顶点的网格和骨骼属性时,稠密图注意力网络可以端到端地将其映射到每个网格顶点的修正位移,以实现更复杂的非线性效果。本方法能够加快项目的进展并提高生产效率,减少了创作者为新角色人体装配的时间与精力。

    基于人工智能生成与数字孪生的铁路异物入侵仿真方法

    公开(公告)号:CN118551647A

    公开(公告)日:2024-08-27

    申请号:CN202410637250.X

    申请日:2024-05-22

    Abstract: 本发明公开了基于人工智能生成与数字孪生的铁路异物入侵仿真方法,属于人工智能领域,尤其是涉及生成式人工智能技术、数字孪生技术;具体实施过程如下:基于深度强化学习技术建立铁路异物入侵场景,根据入侵异物的马尔科夫假设设计蒙特卡洛方法,构建铁路异物入侵生成模型;以异物入侵生成模型为基础,利用降雨天气数学模型设计增加与移除铁路雨天效果的模型,进而利用大气散射模型与铁路场景景深结合,构建异物入侵生成时的铁路天气环境模型,并构建基于数字孪生的铁路异物入侵仿真平台。本发明针对当前实际工作中难以进行异物入侵数据的采集实验,数据来源受限的难点痛点进行了改进,实现了可用数据的大批量生成。

    适用于铁路环境下的异物入侵检测方法

    公开(公告)号:CN118570516A

    公开(公告)日:2024-08-30

    申请号:CN202410231217.7

    申请日:2024-02-29

    Abstract: 本发明公开了适用于铁路环境下的异物入侵检测方法,包括如下步骤,步骤1:建立供深度学习训练的铁路异物入侵样本集;步骤2:建立深度学习检测网络模型;步骤3:针对铁路场景的目标检测的优化网络;步骤4:模型剪枝操作;利用数据增强技术将原有的数据集进行扩充,该方法可以很好的提升训练时模型的鲁棒性以及一定程度上可以规避训练的时候出现过拟合的问题。除此之外,本发明使用了大模型与人工智能生成内容AIGC,即使用“文生图”的方式根据需求生成虚拟的铁路环境下含有异物入侵的图片,该技术能够很好的弥补目前现实中没有或者少有的异物入侵目标图片,图片的真实效果可与现实世界相当。

Patent Agency Ranking