-
公开(公告)号:CN110213582B
公开(公告)日:2021-05-11
申请号:CN201910509308.1
申请日:2019-06-13
Applicant: 复旦大学
IPC: H04N19/124 , H04N19/146
Abstract: 本发明提供一种面向超高分辨率图像分析的高精度量化加速方法,用于通过量化对超高分辨率图像分析过程中大量的中间数据计算过程进行改善,其特征在于,包括如下步骤:步骤S1,获取最终结果需要的精确度α,得到中间计算需要保留的精确度β;步骤S2,取得中间变量X,通过当前计算的进制γ将中间变量X按照中间计算需要保留的精确度β进行量化得到偏移变量X1;步骤S3,基于偏移变量X1进行计算运算,得到计算结果Y1,并且在计算过程中保留计算过程队列Q;步骤S4,由计算结果Y1、中间计算需要保留的精确度β以及计算过程队列Q得到最终进制的最终结果Y。
-
公开(公告)号:CN111629264A
公开(公告)日:2020-09-04
申请号:CN202010485289.6
申请日:2020-06-01
Applicant: 复旦大学
IPC: H04N21/44 , H04N21/4402 , H04N21/6437 , H04N21/8547 , H04N7/18
Abstract: 本发明提供一种基于web的分离式前端图像渲染方法,其特征在于,用于让客户端根据web服务器输出的渲染元素以及摄像头采集的视频数据渲染结合成客户端所要显示的前端图像,渲染元素由算法服务器基于视频数据处理生成并发送给web服务器,包括如下步骤:步骤S1,将web服务器输出的渲染元素做标准化操作;步骤S2,计算算法侧视频数据到达时延;步骤S3,计算算法执行时间、算法结果传输时间、服务器处理时间以及渲染传输时间;步骤S4,计算户侧视频数据到达时延;步骤S5,客户端对摄像头传输的视频数据进行解析,并计算渲染元素与视频数据到达的时间差,进一步基于该时间差获取与渲染元素对应帧的视频数据并在显示界面上做逐帧渲染展示。
-
公开(公告)号:CN110866855A
公开(公告)日:2020-03-06
申请号:CN201911105459.7
申请日:2019-11-13
Applicant: 复旦大学
Abstract: 本发明的目的在于提供一个基于区块链的证照颁发及安全管理系统,将证照认证权力去中心化,使证照信息公开化。具体地,本发明提供了一种基于区块链的证照颁发及安全管理系统,其特征在于,包括:服务平台,基于已有的政务部门之间的数据互通而形成;多个用户终端,与服务平台通信连接,用于让用户提出证照业务办理的办理申请;以及多个服务终端,与不同的证照业务服务部门相对应,与服务平台通信连接,其中,服务终端在与服务平台通信连接的同时,还分别作为区块链子系统的节点相互通信连接从而构成区块链子系统,服务终端具有节点处理部,用于至少将用户的证照业务办理的办理结果形成新区块从而将该办理结果记录在区块链子系统中。
-
公开(公告)号:CN110619387A
公开(公告)日:2019-12-27
申请号:CN201910865549.X
申请日:2019-09-12
Applicant: 复旦大学
Abstract: 本发明提供一种基于卷积神经网络的通道扩展方法,用于替换卷积神经网络中通用的卷积扩展通道和池化操作,从而保证有效数据不损失的情况下减少卷积神经网络在中间运算的冗余数据,其特征在于,包括如下步骤:步骤S1,根据在卷积池化前后特征图的分辨率变化率计算特征图数据的分辨率及通道数;步骤S2,将4个维度的特征图数据中对应高和宽的通道进行维度拆分,形成6个维度;步骤S3,将拆分后的特征图数据进行维度调转:第3、5维度调换为第5、6维度;步骤S4,将调换后的特征图数据中第2、3、4维度进行维度合并,重新整合为4个维度。
-
公开(公告)号:CN110659724B
公开(公告)日:2023-04-28
申请号:CN201910866933.1
申请日:2019-09-12
Applicant: 复旦大学
IPC: G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于目标尺度的目标检测深度卷积神经网络构建方法,用于在检测某一尺度范围的目标的应用场景下,能够灵活多变、针对不同尺度的目标实现良好适应性的深度卷积神经网,其特征在于,包括:步骤S1,分析图像样本数据集中的所有图像的目标对象,确定目标尺度下限;步骤S2,根据用于目标检测的深度卷积神经网络的主干网结构,得到单个目标对象最终所需的特征数据量,并分析主干网结构的下采样倍数以及最佳下采样倍数;步骤S3,通过深度模型重构方法重构深度卷积神经网络,保证单个目标对象在执行分类运算之前保留充分的特征数据量;步骤S4,使用图像样本数据集对深度卷积神经网络进行训练直至准确率达到要求。
-
公开(公告)号:CN113239948B
公开(公告)日:2022-10-14
申请号:CN202110270383.4
申请日:2021-03-12
Applicant: 复旦大学
IPC: G06K9/62 , G06V10/80 , G06V20/58 , G01S13/86 , G01S13/89 , G06T5/50 , G06T7/13 , G06T7/33 , G06T7/62 , G06T7/73
Abstract: 本发明提供一种面向毫米波雷达与视频图像的数据融合方法及系统,其方法包括以下步骤:步骤S1,建立含有黑色幕布以及在该黑色幕布前根据预定距离等距平行设置有等长的n个白色木棍的检测场景;步骤S2,通过毫米波雷达对检测场景进行检测,得到n个白色木棍在雷达坐标系中x轴与y轴上的坐标值;步骤S3,通过摄像头对检测场景进行拍摄得到木棍图像;步骤S4,对木棍图像进行数字图像处理得到n个白色木棍在木棍图像中的坐标值作为该白色木棍在图像坐标系中y轴与z轴上的坐标值;步骤S5,根据预定距离、白色木棍在雷达坐标系中以及在图像坐标系中的坐标值,将雷达坐标系以及图像坐标系基于y轴进行映射从而完成雷达坐标系以及图像坐标系的融合。
-
公开(公告)号:CN113239948A
公开(公告)日:2021-08-10
申请号:CN202110270383.4
申请日:2021-03-12
Applicant: 复旦大学
IPC: G06K9/62 , G06K9/00 , G01S13/86 , G01S13/89 , G06T5/50 , G06T7/13 , G06T7/33 , G06T7/62 , G06T7/73
Abstract: 本发明提供一种面向毫米波雷达与视频图像的数据融合方法及系统,其方法包括以下步骤:步骤S1,建立含有黑色幕布以及在该黑色幕布前根据预定距离等距平行设置有等长的n个白色木棍的检测场景;步骤S2,通过毫米波雷达对检测场景进行检测,得到n个白色木棍在雷达坐标系中x轴与y轴上的坐标值;步骤S3,通过摄像头对检测场景进行拍摄得到木棍图像;步骤S4,对木棍图像进行数字图像处理得到n个白色木棍在木棍图像中的坐标值作为该白色木棍在图像坐标系中y轴与z轴上的坐标值;步骤S5,根据预定距离、白色木棍在雷达坐标系中以及在图像坐标系中的坐标值,将雷达坐标系以及图像坐标系基于y轴进行映射从而完成雷达坐标系以及图像坐标系的融合。
-
公开(公告)号:CN111629264B
公开(公告)日:2021-07-27
申请号:CN202010485289.6
申请日:2020-06-01
Applicant: 复旦大学
IPC: H04N21/44 , H04N21/4402 , H04N21/6437 , H04N21/8547 , H04N7/18
Abstract: 本发明提供一种基于web的分离式前端图像渲染方法,其特征在于,用于让客户端根据web服务器输出的渲染元素以及摄像头采集的视频数据渲染结合成客户端所要显示的前端图像,渲染元素由算法服务器基于视频数据处理生成并发送给web服务器,包括如下步骤:步骤S1,将web服务器输出的渲染元素做标准化操作;步骤S2,计算算法侧视频数据到达时延;步骤S3,计算算法执行时间、算法结果传输时间、服务器处理时间以及渲染传输时间;步骤S4,计算户侧视频数据到达时延;步骤S5,客户端对摄像头传输的视频数据进行解析,并计算渲染元素与视频数据到达的时间差,进一步基于该时间差获取与渲染元素对应帧的视频数据并在显示界面上做逐帧渲染展示。
-
公开(公告)号:CN111368034A
公开(公告)日:2020-07-03
申请号:CN202010135628.8
申请日:2020-03-02
Applicant: 复旦大学
Abstract: 本发明的目的在于实现考虑到用户属性因素且兼顾用户需求的供给内容推荐,具体提供了一种基于深度神经网络的双向语义特征匹配方法,包括如下步骤:步骤S1,形成供给信息向量;步骤S2,形成用户信息向量;步骤S3,提取用户需求的关键词以及供给内容的关键词;步骤S4,建立神经网络模型;步骤S5,进行训练得到训练好的神经网络模型作为双向语义特征匹配模型;步骤S6,根据用户新输入的用户需求,采用双向语义特征匹配模型进行供给内容的匹配。步骤S4包括:将用户信息向量以及提取出的用户需求的关键词融合形成用户需求矩阵;将供给信息模型以及提取出的供给内容的关键词融合形成供给内容矩阵。本发明还提供了对应的供给内容推荐装置。
-
公开(公告)号:CN110213582A
公开(公告)日:2019-09-06
申请号:CN201910509308.1
申请日:2019-06-13
Applicant: 复旦大学
IPC: H04N19/124 , H04N19/146
Abstract: 本发明提供一种面向超高分辨率图像分析的高精度量化加速方法,用于通过量化对超高分辨率图像分析过程中大量的中间数据计算过程进行改善,其特征在于,包括如下步骤:步骤S1,获取最终结果需要的精确度α,得到中间计算需要保留的精确度β;步骤S2,取得中间变量X,通过当前计算的进制γ将中间变量X按照中间计算需要保留的精确度β进行量化得到偏移变量X1;步骤S3,基于偏移变量X1进行计算运算,得到计算结果Y1,并且在计算过程中保留计算过程队列Q;步骤S4,由计算结果Y1、中间计算需要保留的精确度β以及计算过程队列Q得到最终进制的最终结果Y。
-
-
-
-
-
-
-
-
-