一种基于双层刻蚀曲线优化的超带宽多模弯曲波导

    公开(公告)号:CN116609877A

    公开(公告)日:2023-08-18

    申请号:CN202310621648.X

    申请日:2023-05-30

    Applicant: 燕山大学

    Abstract: 本发明提供了一种基于双层刻蚀曲线优化的超带宽多模弯曲波导,属于光子器件与集成技术领域,构建在绝缘体上的硅平台SOI上,由上至下包括包层,波导层和基底层,所述波导层设置为经浅刻蚀工艺形成的窄波导层和经深刻蚀工艺形成的宽波导层,窄波导层和宽波导层为宽度不同的曲线层,窄波导层和宽波导层形成四条内径和外径轮廓曲线,四条内径和外径轮廓曲线离散为多个弧线,通过窄波导层形成的内径轮廓曲线包括自由曲线C和自由曲线D,通过宽波导层形成的外径轮廓曲线包括自由曲线A和自由曲线B。本发明提出的多模弯曲波导具有器件尺寸小、工作带宽高、可制备性好、工艺容差大等优点,可应用于片上多波段和密集集成的模分复用系统。

    基于自适应特征融合的多尺度滤波目标跟踪方法

    公开(公告)号:CN113177970A

    公开(公告)日:2021-07-27

    申请号:CN202110489264.8

    申请日:2021-04-29

    Applicant: 燕山大学

    Abstract: 本发明提供一种基于自适应特征融合的多尺度滤波目标跟踪方法,涉及目标跟踪技术领域。所述方法包括以下步骤:初始化网络模型,读取视频获取多个图像帧;目标位置预测,首先选取目标周围图像块,提取VGG‑19网络层特征与CN特征,将CN特征广播后与VGG‑19网络conv2‑2层特征直接串联融合,三层特征分别通过分类器进行分类,滤波模型输出响应,最后由粗到细利用经验权重加权融合响应评估目标位置,更新目标滤波器参数。本发明利用VGG19网络的分层特征结合颜色属性CN特征,进行滤波分别输出响应,以最大响应为基准,由粗到细加权融合响应评估目标位置。OPE检测结果表明,在目标变形、光照变化、运动模糊、平面旋转几个方面,方法可靠,精度高。

    基于视觉与压力传感的病房智能看护识别方法及识别系统

    公开(公告)号:CN112287783A

    公开(公告)日:2021-01-29

    申请号:CN202011120875.7

    申请日:2020-10-19

    Applicant: 燕山大学

    Abstract: 本发明提供一种基于视觉与压力传感的病房智能看护识别方法及识别系统,其实施步骤为:先对要实施智能看护病房场景中的物体贴上标签,并对病房场景内带标签的物体进行识别;接着使用可见光及热成像智能工业相机的热成像模式,对病房场景的环境温度及人体相对病房场景的环境温度进行测量;然后,根据病房场景内压力传感床垫得到的压力传感图像和用智能相机识别的姿态进行姿态判别;最后,通过以上步骤判别床的位置、待看护体的检测结果以及局部压力生成图像的正负样本判别情况,综合判定待看护体是否卧床,确定是否实施和进行下一步的看护方法。本发明通过压力传感和视觉检测方法,解决了该领域从无到有的问题,提高了病房监控及看护的自动化水平。

    基于有限范围场景内的目标人群跟踪监控方法

    公开(公告)号:CN112200021B

    公开(公告)日:2022-07-01

    申请号:CN202011005357.0

    申请日:2020-09-22

    Applicant: 燕山大学

    Abstract: 本发明公开了一种基于有限范围场景内的目标人群跟踪监控方法,其包括:S1:基于有限视野范围,设计实现整套相机安放采集装置,以适应目标人群活动场景及视野全覆盖的需要;S2:依据目标人群的体型及脸型比例修改检测网络模型的锚框大小及比例,修改检测网络的损失函数,以提高检测的准确性;S3:检测人脸的同时对人脸采用具体的识别网络进行识别,使检测网络与人脸识别网络同时使用的情形下,既能提高检测识别精度,又不降低速度;S4:改进多目标跟踪监控模型,通过具体特征的提取以及具体场景的剪枝提高在目标人群跟踪监控的模型适应性。本设计方案在目标人群看护与预防意外的视觉方案中,实现了无漏、实时的同时,提高了监控的准确性及定位的速度。

    快速判别航空发动机核心零部件装置拆装顺序的方法

    公开(公告)号:CN112200777B

    公开(公告)日:2022-05-17

    申请号:CN202011024196.X

    申请日:2020-09-25

    Applicant: 燕山大学

    Abstract: 本发明公开了一种快速判别航空发动机核心零部件装置拆装顺序的方法,装置包含3D相机、2D相机和发动机核心零部件固定装置,3D相机采集3D点云,2D相机采集关键部位2D图,发动机核心零部件固定装置固定检测物,最终得到采集图像中零件的类别和坐标位置;由采集的图像判断航空发动机核心零部件装置拆装顺序正确与否。判别方法:S1、将正确拆装步骤的标准图像与当前采集点云图配准;S2、将不能够配准的点云图判别为拆装错误,将能够配准的进行2D图像的关键部位相似度比较;S3、将2D图像相似度比较通过的判为拆装正确,否则判为错误。该实现方法能明显提升拆装顺序判定的精度,克服小零件的拆装部位不准确带来判别误差,并且能够端到端的实现。

    基于嵌入式设备改进CenterNet的行人检测方法

    公开(公告)号:CN112580443B

    公开(公告)日:2022-03-15

    申请号:CN202011402378.6

    申请日:2020-12-02

    Applicant: 燕山大学

    Abstract: 本发明提供一种基于嵌入式设备改进CenterNet的行人检测方法,包括以下步骤:步骤S1:使用BiFPN结构改进优化CenterNet的骨干网络;步骤S2:统计行人数据集标注框宽高比,并据此设置好每个标注框对应的高斯核分布;步骤S3:据步骤S2设置好的高斯核分布宽高比改进训练过程中的高斯核以及损失函数;步骤S4:按步骤S2中统计行人检测框宽高比的数据集进行训练;步骤S5:将训练好的模型进行量化、加速,移植到嵌入式设备;步骤S6:在嵌入式设备上开启服务端,对模型移植后的检测效果进行评估。改进后的CenterNet模型能够有效的提取深度特征,避免复杂的网络结构带来的庞大参数量,在嵌入式设备上有更快的运行速度,同时在行人检测的精度上也得到提升。

    基于自适应特征融合的多尺度滤波目标跟踪方法

    公开(公告)号:CN113177970B

    公开(公告)日:2022-07-19

    申请号:CN202110489264.8

    申请日:2021-04-29

    Applicant: 燕山大学

    Abstract: 本发明提供一种基于自适应特征融合的多尺度滤波目标跟踪方法,涉及目标跟踪技术领域。所述方法包括以下步骤:初始化网络模型,读取视频获取多个图像帧;目标位置预测,首先选取目标周围图像块,提取VGG‑19网络层特征与CN特征,将CN特征广播后与VGG‑19网络conv2‑2层特征直接串联融合,三层特征分别通过分类器进行分类,滤波模型输出响应,最后由粗到细利用经验权重加权融合响应评估目标位置,更新目标滤波器参数。本发明利用VGG19网络的分层特征结合颜色属性CN特征,进行滤波分别输出响应,以最大响应为基准,由粗到细加权融合响应评估目标位置。OPE检测结果表明,在目标变形、光照变化、运动模糊、平面旋转几个方面,方法可靠,精度高。

    基于嵌入式设备改进CenterNet的行人检测方法

    公开(公告)号:CN112580443A

    公开(公告)日:2021-03-30

    申请号:CN202011402378.6

    申请日:2020-12-02

    Applicant: 燕山大学

    Abstract: 本发明提供一种基于嵌入式设备改进CenterNet的行人检测方法,包括以下步骤:步骤S1:使用BiFPN结构改进优化CenterNet的骨干网络;步骤S2:统计行人数据集标注框宽高比,并据此设置好每个标注框对应的高斯核分布;步骤S3:据步骤S2设置好的高斯核分布宽高比改进训练过程中的高斯核以及损失函数;步骤S4:按步骤S2中统计行人检测框宽高比的数据集进行训练;步骤S5:将训练好的模型进行量化、加速,移植到嵌入式设备;步骤S6:在嵌入式设备上开启服务端,对模型移植后的检测效果进行评估。改进后的CenterNet模型能够有效的提取深度特征,避免复杂的网络结构带来的庞大参数量,在嵌入式设备上有更快的运行速度,同时在行人检测的精度上也得到提升。

    快速判别航空发动机核心零部件装置拆装顺序的方法

    公开(公告)号:CN112200777A

    公开(公告)日:2021-01-08

    申请号:CN202011024196.X

    申请日:2020-09-25

    Applicant: 燕山大学

    Abstract: 本发明公开了一种快速判别航空发动机核心零部件装置拆装顺序的方法,装置包含3D相机、2D相机和发动机核心零部件固定装置,3D相机采集3D点云,2D相机采集关键部位2D图,发动机核心零部件固定装置固定检测物,最终得到采集图像中零件的类别和坐标位置;由采集的图像判断航空发动机核心零部件装置拆装顺序正确与否。判别方法:S1、将正确拆装步骤的标准图像与当前采集点云图配准;S2、将不能够配准的点云图判别为拆装错误,将能够配准的进行2D图像的关键部位相似度比较;S3、将2D图像相似度比较通过的判为拆装正确,否则判为错误。该实现方法能明显提升拆装顺序判定的精度,克服小零件的拆装部位不准确带来判别误差,并且能够端到端的实现。

Patent Agency Ranking