一种基于聚类预分析的多意图与语义槽联合识别方法

    公开(公告)号:CN113204952A

    公开(公告)日:2021-08-03

    申请号:CN202110325369.X

    申请日:2021-03-26

    Abstract: 本发明提出了一种基于聚类预分析的多意图识别与语义槽填充联合建模方法:实时获取当前用户输入的多意图文本并进行预处理;基于聚类预分析构建多意图识别模型,用来识别用户的多个意图;基于Slot‑Gated关联门机制构建BiLSTM‑CRF语义槽填充模型,充分利用意图识别的结果指导语义槽的填充;对构建的多意图识别与语义槽填充的联合模型进行优化。本发明充分考虑了意图识别与语义槽填充之间的联系,提出了一种联合建模的方法,将两个语义分析子任务合并为一个语义分析任务,在提高多意图识别准确性的同时也提高语义槽填充的准确性,从而提高自然语言语义分析的质量;在实际应用中,可以有效提升人机对话中机器理解人类语言的能力,提高解决问题的能力和人机对话的体验。

    一种基于图论的车载异构网络资源协作优化方法

    公开(公告)号:CN108551664B

    公开(公告)日:2021-06-29

    申请号:CN201810340435.9

    申请日:2018-04-17

    Abstract: 本发明公开了一种基于图论的车载异构网络资源协作优化方法,包括确定车辆与基站之间是单跳通信还是两跳通信,分类采集形成单跳通信集合和两跳通信集合;根据图论将单跳通信集合和两跳通信集合组成二分图,计算每一个单跳通信和两跳通信的服务量,然后对单跳通信集合中链路的服务量进行大小排序;选取服务量值最小的车辆节点构建DV车辆集,其余车辆构建RV车辆集,由DV车辆集和RV车辆集作为顶点构建加权二分图;计算加权二分图顶点之间每条边权重,并使用KM算法寻找加权二分图的整体最大权重匹配方案,在匹配过程中设置时延限制约束条件;使用二分搜索法对DV车辆数量进行迭代更新,根据迭代更新结果判断是否找到车辆与基站之间通信的最优协作方案。

    一种用于VR全景直播的动态图像融合方法及系统

    公开(公告)号:CN112533002A

    公开(公告)日:2021-03-19

    申请号:CN202011284179.X

    申请日:2020-11-17

    Abstract: 本发明公开了一种用于VR全景直播的动态图像融合方法及系统,包括:采集多视角直播流,压缩编码后,实时的将其推送到流媒体服务器上;使用动态图像融合算法将不同视角的直播画面无缝拼接,生成VR全景直播流;创建虚拟场景和3D球体对象,并在虚拟场景内以VR全景图为材质建立网格模型;创建虚拟的透视相机,指定相机的初始位置、方向和视野范围;创建3D渲染器,把场景中虚拟摄像机视野范围内的所有二维直播画面渲染成三维图像并显示;根据用户视角的改变,改变虚拟摄像机的位置和方向,以生成并显示不同视角的直播画面。本发明支持用户视角改变,不仅能扩展用户在直播中的视野范围,消除直播盲区,而且为用户带来沉浸式的视觉感受,提高直播效果。

    一种RIS辅助的D2D通信传输模式选择方法

    公开(公告)号:CN112272418A

    公开(公告)日:2021-01-26

    申请号:CN202011047906.0

    申请日:2020-09-29

    Abstract: 本发明公开了一种RIS辅助的D2D通信传输模式选择方法,包括以下步骤:(1)在各传输时段,D2D用户以当前传输模式进行相互通信;(2)在各传输时段末,系统获取当前D2D用户与RIS的距离以及D2D用户之间的距离,计算D2D用户的距离函数;(3)将获得的距离函数与预设阈值比较,为下一传输时隙选择通信模式;(4)下一传输时隙,D2D用户采用系统选择的通信模式进行相互通信。本发明充分利用RIS辅助的D2D通信模式和传统D2D通信模式的优势,以D2D通信链路可达速率最大为目标,D2D用户对可在RIS辅助的D2D通信传输模式与直接D2D通信传输模式间动态切换,使得D2D用户对的可达速率始终保持最优。

    一种基于动态环境的自适应室内融合定位方法

    公开(公告)号:CN112261606A

    公开(公告)日:2021-01-22

    申请号:CN202011038958.1

    申请日:2020-09-28

    Abstract: 本发明公开了一种基于动态环境的自适应室内融合定位方法,首先,基于CIR进行离线阶段的定位点参数采集;基于5G定位基站对待测定位目标进行参数获取及分析;其次,基于多边定位法和CIR指纹定位法对待测目标定位,并对预测位置和实际位置进行误差分析;以多边定位法测量的位置为测试值,CIR指纹定位法预测的位置为预测值,根据两者的误差,进行基于均方误差的融合计算,估算最优的位置;最后,基于室内环境变化自适应的融合定位。本发明能够通过检测室内的变化,从而进行5G定位基站切换与误差修正,使得定位模型在适应环境变化的同时提高预测准确率。

    面向残疾人士的手势便利控制系统

    公开(公告)号:CN112232192A

    公开(公告)日:2021-01-15

    申请号:CN202011101541.5

    申请日:2020-10-15

    Abstract: 本发明提出了面向残疾人士的手势便利控制系统。属于智能家居领域;由图像采集模块、手势识别模块、手势控制模块和指令设定模块组成;所述图像采集模块采用Kinect传感器获取残疾人士的手势图像信息,图像采集模块输出端与手势识别模块输入端连接,所述的手势识别模块用于对获取的手势图像信息中的人物手势进行识别,其输出端与手势控制模块连接,所述的手势控制模块用于对家居内的电气设备进行控制,其通过局域网与指令设定模块连接,所述的指令设定模块用于对获取的手势图像信息中的人物手势与电气设备建立对应的指令关系。本发明可以智能地识别用户的手势,控制家居内的电气设备地运行,给用户带来舒适安全的享受,有非常广阔的应用场景。

    一种基于无人机及无锚框网络的车辆检测方法

    公开(公告)号:CN111626987A

    公开(公告)日:2020-09-04

    申请号:CN202010357546.8

    申请日:2020-04-29

    Abstract: 本发明公开了一种基于无人机及无锚框网络的车辆检测方法,针预先获取无人机高度信息,采集无人机航拍图像,保存每张图像的高度信息,形成训练集和测试集;建立相机模型,通过高度信息计算出车辆尺度;设计特征提取网络,将深层网络和浅层网络进行融合,提取车辆特征;采用无锚框的检测网络,基于CenterNet网络对特征图进行识别检测。本发明舍弃传统有锚框的检测方法,降低了运算量,相对于其他已知的其他算法,在准确率和速度上均得到了提升,具备了在无人机的边缘端进行实时检测的能力。

    一种基于轻量化3D-RDNet模型的烟雾视频检测方法及系统

    公开(公告)号:CN111626112A

    公开(公告)日:2020-09-04

    申请号:CN202010312211.4

    申请日:2020-04-20

    Abstract: 本发明公开了一种基于轻量化3D-RDNet模型的烟雾视频检测方法,包括步骤:(1)实时获取视频图像信息;(2)对视频帧图像采用已有的二维烟雾检测模型进行烟雾检测,获得烟雾目标框和评分;(3)通过基于先验评分的疑似烟雾区域定位方法,对步骤(2)得到的目标框进行筛选获取疑似烟雾框;(4)根据动态检测策略选取疑似烟雾目标框生成的视频序列,送入基于改进3D残差稠密网络的烟雾视频检测模型进行处理识别,判定是否存在烟雾目标并给出相应的报警信息。本发明还提供了基于上述方法的烟雾视频检测系统。本发明可以广泛应用于具备智能系统的终端设备,提供有效的烟雾检测。

    一种面向家居噪声环境的分层自适应去噪方法及系统

    公开(公告)号:CN111477241A

    公开(公告)日:2020-07-31

    申请号:CN202010294672.3

    申请日:2020-04-15

    Abstract: 本发明公开了一种面向家居噪声环境的分层自适应去噪方法及系统,该方法包括:(1)先将带噪语音信号经过谱减法滤波,去除掉噪声的短时谱部分,得到去噪后的语音信号;(2)观察谱减法去噪后的语音信号中时域波形出现时间较短的突发声调的情况;(3)若谱减法去噪后的时域波形出现时间较短的突发声调的情况比较严重,采用维纳滤波法对该信号进行二次滤波,去噪结束,得到去噪后的语音信号否则,转至步骤4;(4)若出现时间较短的突发声调的情况不明显,对该信号进行小波阈值去噪法滤波,去噪结束,得到去噪后的语音信号;本发明提出的面向家居噪声环境下的分层自适应算法,可以有效的抑制带噪信号中的噪声。

Patent Agency Ranking