-
公开(公告)号:CN112633220B
公开(公告)日:2024-01-09
申请号:CN202011610311.1
申请日:2020-12-30
Applicant: 浙江工商大学
IPC: G06V20/40 , G06V40/10 , G06V10/25 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于双向序列化建模的人体姿态估计方法,以连续的3帧作为输入,充分利用视频的时序信息计算每个关节的大致空间范围,然后从更小的范围内回归关节的具体位置,从而更好地解决人体姿态估计任务中固有的遮挡、运动模糊等问题,使得模型的泛化性更强,具有更高的准确率。本发明充分利用了视频的时序信息,增强了模型的推理能力,能够更好地对人体关键部位进行估计,在安防、短视频平台等需要实时抽取姿态进行分析的行业具有重要意义。
-
公开(公告)号:CN117251375A
公开(公告)日:2023-12-19
申请号:CN202311298302.7
申请日:2023-10-09
Applicant: 浙江工商大学
Abstract: 本发明公开了一种基于N‑gram模型指导智能合约调用序列生成的双层模糊测试方法,通过训练函数序列生成模型来知道模糊测试器确定函数调用的先后关系;在第一层模糊测试的过程中结合了分支搜寻策略,来探寻函数调用序列对应所有可到达的分支以及能够到达该分支测试用例形成测试套件集合;在第二层模糊测试的过程中结合了掩码引导变异策略,引导测试套件中的测试用例变异生成更多能够到达对应分支的测试用例。本发明方法采用双层模糊结构,同时结合了合约调用序列的生成模型、分支搜寻策略、掩码引导变异策略,指导模糊检测器实现效率更快、覆盖率更广、准确率更高的智能合约漏洞检测,不仅具有良好的实用价值,而且有很好的借鉴意义。
-
公开(公告)号:CN113674412B
公开(公告)日:2023-08-29
申请号:CN202110924699.0
申请日:2021-08-12
Applicant: 浙江工商大学
Abstract: 本发明提供一种基于位姿融合优化的室内地图构建方法、系统及存储介质,所述方法包括:根据KINECT和IMU获取的实时数据解算机器人的位姿数据;根据IMU的线加速度数据和里程计数据判断机器人的当前运动状态;若机器人处于静止状态,则采用扩展卡尔曼滤波算法对所述位姿数据进行融合处理,若机器人处于运动状态,则采用动态加权方法对所述位姿数据进行融合处理;根据融合处理结果构建室内地图。该方法具有更高的位姿估计精度、更高的二维地图建模精度以及更优的建模效果,能够应用于贫特征、高动态、弱光影的场景中。
-
公开(公告)号:CN111652269B
公开(公告)日:2023-06-13
申请号:CN202010324194.6
申请日:2020-04-22
Applicant: 浙江盈狐云数据科技有限公司 , 浙江工商大学
IPC: G06V10/764 , G06N20/00 , G06V10/762 , G06V10/774
Abstract: 本发明公开了一种基于群智交互的主动机器学习方法及装置。本发明主要利用众包形式的训练集的获取方式并与主动机器相结合,提出了一种增强式的主动机器学习方法及装置。在训练集的获取过程中,充分利用机器标注对于众包过程的引导作用。并且基于汇集结果确定性的变化率,提出了一种面向众包的迭代优化工作流,该工作流可控制众包冗余度及汇集结果的准确度。同时在学习阶段,基于测试集的信息熵,提出了一种主动机器学习中迭代过程的控制方式,从而保障主动机器学习的可靠性。
-
公开(公告)号:CN111695457B
公开(公告)日:2023-05-09
申请号:CN202010468015.6
申请日:2020-05-28
Applicant: 浙江工商大学
IPC: G06V40/10 , G06V10/82 , G06N3/0442 , G06N3/0464 , G06N3/084 , G06V10/774
Abstract: 本发明公开了一种基于弱监督机制的人体姿态估计方法,通过弱监督的训练方式,利用较少的带标签数据来训练模型,解决了视频数据集标注困难、成本高等问题,同时充分利用了视频的时序信息即视频帧之间的隐式相关性,从而更好的处理了人体姿态估计任务中固有的遮挡、运动模糊等问题,使得模型的泛化性更强,实现更高的检测准确率。同时,本发明方法采用轻量级的网络架构,使得姿态估计实时利用更加可行,解决了传统姿态估计占用大量资源的问题,对短视频平台、安防等领域具有重要应用价值。
-
公开(公告)号:CN109583507B
公开(公告)日:2023-04-18
申请号:CN201811496767.2
申请日:2018-12-07
Applicant: 浙江工商大学
IPC: G06V40/10 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82
Abstract: 本发明公开了一种基于深度卷积神经网络的猪体识别方法,涉及计算机视觉领域。所提供的方法以包含猪体的图像为输入,以两个深度卷积神经网络提取特征,每个卷积神经网络输出的特征融合了各自的较低层次的特征和较高层次的特征,最后融合两个网络提取的特征输入到作为分类器的全连接层和Softmax层。本发明提供的基于深度卷积神经网络的猪体识别方法,以监控视频采集的图像为输入,以计算机视觉和机器学习技术为基础实现猪个体的身份识别,无需放置电子耳标,有利于节约养殖成本,也避免了耳标容易丢失的问题。
-
公开(公告)号:CN115410067A
公开(公告)日:2022-11-29
申请号:CN202211014352.3
申请日:2022-08-23
Applicant: 浙江工商大学
Abstract: 本发明公开了一种基于CNN‑Transformer双流网络的细粒度服饰检索方法,该方法包括:首先将图像输入到CNN网络中提取特征;将服饰属性映射为特征向量,然后引导注意力模块提取与属性相关的粗粒度图像特征,其中生成的注意力矩阵用于定位图像中与属性相关的局部区域;将图像中的局部区域以及服饰属性输入到Transformer网络中提取细粒度图像特征;最后将两分支的特征进行融合,得到服饰图像的鲁棒性表达并使用相似性计算进行服饰检索;在原始Transformer的基础上引入Dilated‑Transformer变体,减少模型计算量,加快训练和推理速度。本发明使用新颖的CNN‑Transformer双流结构,利用两种网络结构的互补性对服饰图像进行由粗到精的特征表示,最终融合粗粒度和细粒度的特征以实现较高性能的检索。
-
公开(公告)号:CN115345307A
公开(公告)日:2022-11-15
申请号:CN202211263823.4
申请日:2022-10-17
Applicant: 杭州世平信息科技有限公司 , 浙江工商大学
Abstract: 本发明公开了一种密文图像上的安全卷积神经网络推理方法及系统,设计了一种拆分方法,对输入图像进行拆分;基于卷积神经网络的计算特定,将推理计算分发给三个服务器执行,其中两个为主计算节点,一个为ReLU辅助计算节点;计算协议保证了两个主计算节点的计算结果相加即为真实的卷积神经网络推理结果。与现有技术相比,本发明无需任何加密手段,时间开销较小。对于用户来说,仅需对输入图像进行拆分和合并等简单操作,相比加解密操作更方便高效。避免了服务器端的预计算,这也减小了总开销。本发明提出的推理方法无需使用任何加密原语,因此推理计算用时更短;且对用户无加密计算能力的要求。与现有技术相比,本发明实用性更强。
-
公开(公告)号:CN113298890B
公开(公告)日:2022-07-15
申请号:CN202110527552.8
申请日:2021-05-14
Abstract: 本发明公开了非尺度混叠及边缘保留的图像多尺度分解方法及调色方法,在图像中,通过定义新型局部均值包络像素点,采取三次插值算法,获取自适应局部均值曲面,从而迭代操作获得多尺度图像分解,可以实现同时具有边缘保留和非尺度混叠双特性的图像多尺度分解,以得到含有不同尺度信息的高精度的精准的图像解析,对解析的各分量采用设定的线性或非线性算子操作,进一步可以实现灰度图像和彩色图像的多尺度调色处理。本发明的效果和益处是,提供了一种有效的同时具有边缘保留和非尺度混叠双特性的图像多尺度分解算法,可以同时实现无振铃现象和非尺度混合的图像分解以及在此基础上的多尺度调色应用。
-
公开(公告)号:CN111897913B
公开(公告)日:2022-06-03
申请号:CN202010686024.2
申请日:2020-07-16
Applicant: 浙江工商大学
IPC: G06F16/33 , G06F16/783 , G06F40/30 , G06N3/04
Abstract: 本发明公开了一种基于语义树增强的复杂文本查询到视频的跨模态检索方法。对于复杂文本查询语句,将其各个单词转换成叶子节点表示,挖掘子节点之间的关系,将两个依赖性最高的子节点进行合并,通过递归的方式构建查询语句的语义树结构,得到基于语义树增强的查询表示。对于候选视频的编码,通过CNN获得视频初步特征,利用GRU和自注意力机制模块捕获视频之间的时间依赖性和语义相关性,得到鲁棒的视频特征表示。将复杂文本查询表示和视频特征表示映射到公共空间中,自动学习两者的匹配关系,从而实现复杂文本查询到视频的跨模态检索。本发明方法不仅可以解释复杂文本查询语句中的信息成分,更好的理解用户意图,并且在很大程度上提高了检索的性能。
-
-
-
-
-
-
-
-
-