-
公开(公告)号:CN119836116A
公开(公告)日:2025-04-15
申请号:CN202510046586.3
申请日:2025-01-13
Applicant: 福州大学
Abstract: 本发明提出一种顶栅结构的异质复合型光电探测器及制备方法,所述光电探测器为顶栅式的异质复合光电晶体管,包括由电子导体石墨烯与超离子导体#imgabs0#复合形成的异质结构,以及该异质结构表面的顶栅顶接触式结构;该异质结构通过电子导体的电子、超离子导体的离子的相互作用来形成光电响应机制;本发明通过在二维材料石墨烯和超离子导体材料#imgabs1#之间形成离子‑电子束缚态(IEBS)结构,能够有效提升光电探测器的光电响应性能和灵敏度,特别是在光电响应速度和探测灵敏度方面取得了显著的改进。
-
公开(公告)号:CN119071851A
公开(公告)日:2024-12-03
申请号:CN202411345059.4
申请日:2024-09-25
Applicant: 福州大学
IPC: H04W28/08 , H04L67/1014 , H04L41/147
Abstract: 本发明涉及一种面向空天地一体化网络的切片划分与协作卸载方法,包括以下步骤:(1)收集ESP历史用户流量,对未来用户流量进行预测,并计算出ESP所需的资源需求,ESP根据该资源需求在每个切片窗口的开始时刻执行网络切片划分;(2)基础设施提供商响应ESP的资源划分请求,为其划分网络切片;(3)用户通过SAGIN接入并上传计算卸载请求至ESP;(4)ESP根据用户接入位置和请求类型,为其分配合适的边缘服务器,并根据任务属性和用户优先级分配通信和计算资源;(5)在协作卸载过程中,记录各个时隙的状态采取的动作、获得的奖励以及转入的新状态,并根据以上信息,持续优化自身性能。该方法有利于提高系统资源利用效率与任务完成率。
-
公开(公告)号:CN118396905A
公开(公告)日:2024-07-26
申请号:CN202410560140.8
申请日:2024-05-08
Applicant: 福州大学
Abstract: 本发明涉及一种针对旋转双棱镜仿人眼系统成像畸变及色散的协同校正方法。包括:搭建旋转双棱镜仿人眼系统,获取原始畸变及色散图像;基于原始视场R通道的矩形边界,读入基本参数,根据折射率nr,通过逆光线追迹法求出其偏转视场边界,并获取其内部所有需要填充的整数点坐标,再次构造入射光线矢量;利用基于逆光线追迹法的反向映射双线性插值技术得到偏转视场中整数点在畸变图像原始视场中的位置及灰度值;逐一填充灰度值,实现相应通道的旋转双棱镜成像畸变的校正;再分别对B,G两通道进行畸变校正;基于掩码矩阵将R、G、B三个通道的畸变校正图像叠加为一幅RGB图像,最终完成色散校正。本发明方法有效解决了畸变及色散问题。
-
公开(公告)号:CN120009133A
公开(公告)日:2025-05-16
申请号:CN202510092063.2
申请日:2025-01-21
Applicant: 福州大学
IPC: G01N15/0205 , G06F17/15
Abstract: 本发明提供一种基于模拟退火算法的散射介质粒径分布反演线性约束方法,采集散射介质的粒径分布数据;使用Gamma函数对采集的粒径分布数据进行拟合,得到不同浓度下散射介质粒径分布数据的Gamma拟合函数参数;使用两个不同的线性函数对所述Gamma拟合函数参数进行拟合,建立函数描述各拟合参数之间的线性约束关系;通过构建基于光全散射法的Fredholm积分方程,将所述线性约束关系对应的函数代入之后,以散射介质消光系数为输入,代入所述Fredholm积分方程,使用模拟退火算法搜索求解所测散射介质的粒径分布。
-
公开(公告)号:CN119991735A
公开(公告)日:2025-05-13
申请号:CN202510075665.7
申请日:2025-01-17
Applicant: 福州大学
Abstract: 本发明涉及一种基于旋转双棱镜的仿人眼视觉目标跟踪轨迹优化方法,属于光电目标跟踪技术领域。所述方法,包括:采集数据集并进行训练,获取并记录目标在视场中的位置信息;根据非近轴光线追迹法,构建双棱镜指向光束的移动速度与双棱镜转速的数学模型;计算成像视场中心指向被跟踪目标的速度大小和方向,使用粒子群优化算法解算旋转双棱镜的最优转速,使得成像视场中心朝目标移动,成像视场中心每移动一段距离需重新计算最优转速;控制旋转双棱镜以最优转速转动,通过被跟踪目标的位置变化轨迹验证本方法的有效性。本方法在静态目标的指向测试以及移动目标的跟踪测试中都有良好的表现,在实现跟踪轨迹优化的同时,提高了指向精度。
-
公开(公告)号:CN117202264A
公开(公告)日:2023-12-08
申请号:CN202311286846.1
申请日:2023-10-08
Applicant: 福州大学
IPC: H04W28/084 , H04W28/24 , H04L67/10
Abstract: 近年来,随着5G通讯技术的蓬勃发展,涌现出了各类新兴的智能应用(如面部识别、AR/VR、自动驾驶等)。这些智能应用展现出了计算密集与延迟敏感等特性,而移动设备有限的计算能力却限制了其进一步的发展与普及。为了缓解这一问题,本发明提出一种MEC环境中面向5G网络切片的计算卸载方法。首先对所提出的面向5G网络切片的计算卸载问题进行形式化定义。其次提出提出一种结合用户数量预测和资源分配的计算卸载方法。最后实现了所提出的系统环境和卸载方法,并进行了大量的实验对方法的有效性进行证明。实验结果显示,本发明方法能应对动态的MEC用户数量变化,逼近最优的计算卸载与资源分配策略,有效地提高服务提供商的收入。
-
公开(公告)号:CN115880174A
公开(公告)日:2023-03-31
申请号:CN202211583600.6
申请日:2022-12-10
Applicant: 福州大学
IPC: G06T5/00 , G02B27/00 , G02B26/10 , G02B5/04 , G02B7/18 , G02B27/64 , G06T7/80 , G06T7/90 , G06T3/40 , H04N23/95 , H04N23/55
Abstract: 本发明涉及一种基于旋转双棱镜成像系统加速图像处理的简化视场方法,包括:搭建旋转双棱镜成像系统,获取原始畸变图像;校正由相机镜头引起的成像畸变;构造双棱镜各面的法向量和原始畸变图像的边界矢量,并计算偏转后视场边界在无畸变网格中的位置;获取无畸变网格中视场边界的最大内接矩形边界,获取其内部所有需要填充的整数点坐标,进而构造反向入射光线矢量;依次计算入射光线的四次折射,得到无畸变网格中整数点在畸变网格中的位置,并计算得到无畸变网格整数点的灰度值;将得到的灰度值逐一填充至对应的无畸变网格中,实现旋转双棱镜成像畸变的校正。该方法有利于提高图像处理效率,为后续处理提供良好的图像处理基础,节约时间成本。
-
公开(公告)号:CN118075815A
公开(公告)日:2024-05-24
申请号:CN202410057530.3
申请日:2024-01-16
Applicant: 福州大学
IPC: H04W28/08 , H04W72/50 , H04W72/0457 , H04W4/40
Abstract: 本发明提出一种基于轻量化深度强化学习的无人机MEC协作卸载系统及方法,包含一个ESP和若干台无人机;每台无人机上配备有不同性能的MEC服务器,可为来自智能应用的任务提供计算资源;在无人机覆盖范围内的用户可通过向ESP支付费用以接入其所提供的计算卸载服务。本技术方案通过利用策略蒸馏与经验回放机制,将多个无人机的策略融合到同一个智能体中,在压缩模型规模的同时保持优越性能。
-
公开(公告)号:CN116704133A
公开(公告)日:2023-09-05
申请号:CN202310745120.3
申请日:2023-06-25
Applicant: 福州大学
Abstract: 本发明涉及基于高斯形距离‑能量模型与三维超分辨率图像重建方法。包括:搭建距离选通成像系统,获取原始灰度切片图像;根据回波展宽效应,由激光脉冲函数和选通时间函数卷积结果建立高斯形距离‑能量模型;判别各切片图像像素所处的能量态;利用切片图像中目标灰度值与激光照射下目标的辐照度的正比例关系建立切片图像灰度值与目标距离信息的映射关系;利用去噪算法消除噪声;根据两幅切片图像的灰度值反演距离信息,实现三维重建。本发明以高斯形模型替代传统的三角形模型和梯形模型,舍弃了传统模型对于激光脉冲波形的近似,使最终的三维重建结果获得更高的距离精度及更小的测距误差,具有优秀的实用价值。
-
公开(公告)号:CN113759543B
公开(公告)日:2022-11-11
申请号:CN202111097278.1
申请日:2021-09-18
Applicant: 福州大学
Abstract: 本发明涉及一种基于旋转双棱镜成像系统实现灵活中央凹成像的方法。包括:步骤S1、搭建旋转双棱镜成像系统;步骤S2、构造适应度函数,明确适应度值的定义与计算方法;步骤S3、确定感兴趣区域与子图像数,并使用粒子群优化算法求解棱镜转角;步骤S4、根据粒子群优化算法的结果依次调整棱镜转角并采集图像;步骤S5、对采集到的图像进行畸变校正;步骤S6、拼接校正畸变后的图像以获取大视场;步骤S7、对感兴趣区域进行超分辨率重构,进一步提高中央凹区域的分辨率。本发明可实现感兴趣区域灵活调整的中央凹成像,且兼顾整体大视场的获取。此外,本发明仅使用单个旋转双棱镜成像系统即可实现中央凹成像,大幅降低设备的复杂度,具有优秀的实用价值。
-
-
-
-
-
-
-
-
-