一种基于强化学习的无人机变阻抗飞行控制方法

    公开(公告)号:CN115562322A

    公开(公告)日:2023-01-03

    申请号:CN202211234445.7

    申请日:2022-10-10

    Abstract: 本发明涉及一种基于强化学习的无人机变阻抗飞行控制方法,属于无人机技术领域。采用强化学习算法分别建立输出动力学模型中飞行控制命令的强化学习网络_1以及输出阻抗控制模型中阻抗参数的强化学习网络_2,将飞行控制命令输入动力学模型中以获得无人机的当前实际状态,将阻抗参数输入阻抗控制模型中以获得无人机的估测状态误差,再将实际状态与估测状态误差以及期望状态的差值同时作用于强化学习网络_1和强化学习网络_2,则可以实现无人机在飞行过程中达到柔顺控制的目的,从而能避免无人机刚体本身受损伤,同时又能消耗更少的能量,在无人机飞行控制领域具有很好的应用前景。

    一种基于多投影系统的光照补偿方法

    公开(公告)号:CN104539921A

    公开(公告)日:2015-04-22

    申请号:CN201410696565.8

    申请日:2014-11-26

    Abstract: 本发明提出了一种基于多投影系统的光照补偿方法,使用相机-投影机系统建立几何映射关系,采用HDR方法恢复相机的亮度响应关系,并由此恢复出投影机的相对亮度响应关系。通过特殊设计的投影图案及计算流程,使用已经标定过的相机与投影机计算不同设备间的颜色耦合关系,利用投影机光线与投影表面的夹角来合理分配不同投影机间的能量。得出以上的参数后,对目标图像进行自适应调整,保证目标图像在系统所能提供的补偿范围内,同时最大化的利用系统的亮度。经过校正后,多台投影机可以共同合作对目标图像进行补偿。

    一种基于HDR成像的多投影颜色校正方法

    公开(公告)号:CN104486603A

    公开(公告)日:2015-04-01

    申请号:CN201410669501.9

    申请日:2014-11-20

    Abstract: 本发明提出了一种基于HDR成像的颜色校正方法,使用一台商用相机对系统进行颜色校正,通过恢复相机各通道的亮度相应曲线让相机成为系统中的反馈设备,用于恢复各投影机通道的亮度相应曲线。然后建立公共的颜色区间,将各投影机的颜色映射到此区间内。同时,通过对目标图像进行自适应调整,尽可能提高系统的动态范围,保证系统亮度校正精度的同时提高画面质量。经过校正后,多台投影机可以共同合作投影出一幅完整统一的画面中。

    一种建筑外表面投影方法

    公开(公告)号:CN103533318A

    公开(公告)日:2014-01-22

    申请号:CN201310495345.4

    申请日:2013-10-21

    Abstract: 本发明公开了一种建筑外表面投影方法。使用本发明能够在凹凸不平的建筑表面进行投影拼接融合,具有立体效果的视频渲染效果。本发明将艺术视频投影到建筑物的外表面,使用大幅面自由表面投影拼接技术完成建筑外表面投影拼接融合,从而产生超乎想象的震撼视觉效果并且能够与建筑物完美结合。通过投影该发明提出的视频渲染方法制作的视频,能够使人在欣赏的过程中产生立体视觉,使得建筑面上的影像仿佛脱离了建筑物的本体,如同悬浮在空中一般,带给人们震撼的视觉享受。

    一种互动的建筑物表面投影方法

    公开(公告)号:CN103500438A

    公开(公告)日:2014-01-08

    申请号:CN201310495344.X

    申请日:2013-10-21

    Abstract: 本发明公开了一种互动的建筑物表面投影方法。使用本发明能够在凹凸不平的建筑物表面进行投影,并通过各种传感器或手持移动终端对投影内容进行实时控制,产生互动效果。本发明在凹凸不平的建筑物表面进行投影,利用建筑物表面的凹凸点制作具有立体效果的互动媒体,同时通过采用新型人机交互技术,如体感互动、激光互动、语音互动或者移动终端互动技术,与本发明提出的媒体渲染方法制作的媒体进行互动,从而产生超乎想象的震撼视觉效果并且能够与建筑物完美结合,同时能够使人在欣赏的过程中产生立体视觉。

    基于迁移学习的音频和文本的宽时间范畴情感识别方法

    公开(公告)号:CN117633587B

    公开(公告)日:2024-12-06

    申请号:CN202311573437.X

    申请日:2023-11-23

    Abstract: 本发明公开涉及基于迁移学习的音频和文本的宽时间范畴情感识别方法,通过使用预训练模型VGGish和BERTbase提取音频和文本两个模态的情感特征,从不同的角度对目标人物的情感进行分析;通过事实描述和文本描述进行情感特征的提取,在宽时间范畴内对目标人物目前的情感状态进行更准确的推理,通过在SVCEmotion数据集的音频和文本描述数据上的实验证明,VGGish和BERTbase预训练模型均能在本文使用的数据集上实现良好的效果,模型在预训练过程中学习到的参数能够有效的提升其在目标任务上的表现;对比实验证明,SVCEmotion数据集中针对宽时间范畴下的情感识别任务引入的情境描述可以为情感识别提供线索,且与事实描述结合能大幅提升情感识别效果。

    一种基于注意力机制的面部和情景情感识别方法

    公开(公告)号:CN117636426B

    公开(公告)日:2024-11-22

    申请号:CN202311573364.4

    申请日:2023-11-23

    Abstract: 本公开涉及一种基于注意力机制的面部和情景情感识别方法,通过引入注意力机制,使模型在特征提取过程中将更多的注意力用于关键信息的学习,在两个支路的情感识别中都有效提升了模型的识别率。在面部表情识别支路,通道注意力机制的引入提升了模型对关键信息的表达能力,特征选择融合方法缓解了面部表情不确定性引起的模型表现差的问题。在情景支路使用多尺度融合的方式增强模型对图像高级语义和空间信息的表达能力,通过高级特征和低级特征的互补,提升了模型的情景情感识别效果,并在最后的对比实验中证明,本申请的情感识别方法在数据集上能够得到比其他方法更好的识别效果。

    一种基于注意力机制的面部和情景情感识别方法

    公开(公告)号:CN117636426A

    公开(公告)日:2024-03-01

    申请号:CN202311573364.4

    申请日:2023-11-23

    Abstract: 本公开涉及一种基于注意力机制的面部和情景情感识别方法,通过引入注意力机制,使模型在特征提取过程中将更多的注意力用于关键信息的学习,在两个支路的情感识别中都有效提升了模型的识别率。在面部表情识别支路,通道注意力机制的引入提升了模型对关键信息的表达能力,特征选择融合方法缓解了面部表情不确定性引起的模型表现差的问题。在情景支路使用多尺度融合的方式增强模型对图像高级语义和空间信息的表达能力,通过高级特征和低级特征的互补,提升了模型的情景情感识别效果,并在最后的对比实验中证明,本申请的情感识别方法在数据集上能够得到比其他方法更好的识别效果。

Patent Agency Ranking