-
公开(公告)号:CN119440772A
公开(公告)日:2025-02-14
申请号:CN202411571890.1
申请日:2024-11-06
Applicant: 重庆邮电大学
IPC: G06F9/48 , G06F16/2455 , G06Q40/04
Abstract: 本发明涉及区块链数据处理技术领域,尤其涉及一种基于Fabric联盟链的交易并发冲突优化方法,包括客户端执行提案发起操作并生成交易发送至排序节点;排序节点接收不同客户端发送的交易,根据预处理操作将所接收的全部交易划分到4类集合中;将重排序交易集合中每一交易作为一个节点,通过读写依赖关系构建交易冲突依赖图;根据交易冲突依赖图对重排序交易集合中所有交易进行重排序;对待合并交易集合中的所有交易进行分组修改;根据只读交易集合、重排序结果和分组修改结果生成交易调度序列,将交易调度序列打包形成区块;本发明保证数据一致性,并通过缓存、重排序、合并的方法,减少区块内交易失败率,提升系统整体性能和资源利用率。
-
公开(公告)号:CN115331003A
公开(公告)日:2022-11-11
申请号:CN202210448097.7
申请日:2022-04-27
Applicant: 重庆邮电大学
Abstract: 本发明提出了一种极坐标下基于轮廓点表示掩膜的单阶段实例分割方法。首先使用ResNet和本发明设计的LRFE模块作为主干网络,弥补了下采样造成的信息损失,同时在一定程度上增强了网络对小目标的捕获能力。其次使用FPN实现特征融合。然后使用ICKS模块和检测头组成检测网络,ICKS模块提高了检测网络对未知变化的适应性和泛化能力。接下来增加语义分割分支,使网络模型在语义信息的引导下补充和矫正实例分割的结果。此外,被发明还使用自适应优化器灵活而稳定地收敛损失函数。相比于目前最新的实例分割网络,本发明为单阶段实例分割开辟了新的思路,其优点在于简化了实例掩膜的建模过程,同时在训练阶段没有锚框的限制,因此性能更优,分割效果更好。
-
公开(公告)号:CN114998382A
公开(公告)日:2022-09-02
申请号:CN202210444849.2
申请日:2022-04-26
Applicant: 重庆邮电大学
IPC: G06T7/246 , G06T7/215 , G06K9/62 , G06N3/04 , G06N3/08 , G06V10/774 , G06V10/44 , G06V10/764 , G06V10/28 , G06V10/82
Abstract: 本发明公开了一种基于掩膜信息的在线更新目标跟踪方法,涉及计算机视觉,目标跟踪技术领域。该方法主要由特征提取模块、目标定位模块、目标分割模块和细化模块组成,为了保持跟踪算法的实时性,本方法选择使用ResNet‑18的前三层特征作为骨干特征网络,细化模块的输入为图片本身,其对图片直接使用细粒度模块提取特征,意在最大程度保留目标的细节信息。网络首先对目标图片进行特征提取,将得到的特征输入到目标定位模块中,得到目标鲁棒的定位信息并每隔25帧对该模块网络参数进行在线更新,再将定位信息输入到目标分割模块中,得到目标的预测掩膜,最终通过细粒度模块进行上采样还原为输入尺寸,得到目标的跟踪结果。
-
公开(公告)号:CN114998382B
公开(公告)日:2024-12-13
申请号:CN202210444849.2
申请日:2022-04-26
Applicant: 重庆邮电大学
IPC: G06T7/246 , G06T7/215 , G06N3/0464 , G06N3/045 , G06N3/084 , G06V10/774 , G06V10/44 , G06V10/764 , G06V10/28 , G06V10/82
Abstract: 本发明公开了一种基于掩膜信息的在线更新目标跟踪方法,涉及计算机视觉,目标跟踪技术领域。该方法主要由特征提取模块、目标定位模块、目标分割模块和细化模块组成,为了保持跟踪算法的实时性,本方法选择使用ResNet‑18的前三层特征作为骨干特征网络,细化模块的输入为图片本身,其对图片直接使用细粒度模块提取特征,意在最大程度保留目标的细节信息。网络首先对目标图片进行特征提取,将得到的特征输入到目标定位模块中,得到目标鲁棒的定位信息并每隔25帧对该模块网络参数进行在线更新,再将定位信息输入到目标分割模块中,得到目标的预测掩膜,最终通过细粒度模块进行上采样还原为输入尺寸,得到目标的跟踪结果。
-
公开(公告)号:CN119540835A
公开(公告)日:2025-02-28
申请号:CN202411693283.2
申请日:2024-11-25
Applicant: 重庆邮电大学
IPC: G06V20/40 , G06V10/764 , G06V10/774 , G06N3/0455 , G06N3/0499 , G06N3/08 , G06N5/04 , G06F17/16 , G06F17/18 , G06V10/80
Abstract: 本发明属于场景图生成子问题中的动态场景图生成领域,具体涉及一种基于视觉语义推理的动态场景图生成方法,包括:获取视频,将视频输入训练好的动态场景图生成模型,得到对象以及对象之间的关系类别,根据对象以及对象之间的关系类别构建视频的场景图结构;动态场景图生成模型包括:预训练好的对象检测器、时间关系编码模块、关系特征提取模块、空间知识编码器、时空关系解码模块以及分类模块;本发明计算相邻视频帧之间的视觉特征差异和语义特征差异并进行损失计算,为模型的正确预测提供方向;本发明利用空间编码器融合对象空间信息和时间依赖性,并利用先验知识筛选正确的关系标签,提高关系预测的准确性。
-
公开(公告)号:CN119559697A
公开(公告)日:2025-03-04
申请号:CN202411641893.8
申请日:2024-11-18
Applicant: 重庆邮电大学
IPC: G06V40/20 , G06V10/25 , G06V10/44 , G06V10/77 , G06V10/82 , G06V10/764 , G06N3/0464 , G06N3/048 , G06N3/09
Abstract: 本发明属于3D人体姿态估计领域,具体涉及一种基于显式肢体表示的多人3D姿态估计方法及系统,包括:获取多人场景图像,将多人场景图像输入训练好的多人3D姿态估计模型,得到关键点热图、肢体方位向量场、肢体相对深度图和根关键点绝对深度图,对关键点热图、肢体方位向量场、肢体相对深度图和根关键点绝对深度图进行后处理,得到估计的多人3D姿态;本发明通过将人的肢体信息显示编码为二维肢体方位向量场以及肢体相对深度图的方式来确保候选关键点之间的匹配可以直接利用到最直观的肢体信息,以改善不同人体的候选关键点错误匹配的现象,提高了匹配出来的姿态质量。
-
-
-
-
-