-
公开(公告)号:CN119579783A
公开(公告)日:2025-03-07
申请号:CN202411626307.2
申请日:2024-11-14
Applicant: 吉林大学
Abstract: 一种伪装车辆的全覆盖三维对抗攻击纹理生成方法属人工智能深度学习技术领域,本发明使用的网络结构包含神经渲染器,目标分割网络,目标检测,本发明通过对目标车辆进行3D建模,利用神经渲染器获取在设定好的角度和相机距离渲染出的车辆成像,将渲染的伪装车辆转换为逼真的场景,设计损失函数利用深度学习训练目标对抗攻击纹理所需的纹理外观信息,生成的对抗攻击纹理图案生成纹理具备转移攻击后保留攻击特性的能力,在现实情况下更好地融入环境颜色,使生成的对抗攻击纹理颜色与背景更为接近,由此解决现有对抗攻击纹理在现实环境中易被人注意的技术问题。
-
公开(公告)号:CN114358194B
公开(公告)日:2024-11-19
申请号:CN202210014731.6
申请日:2022-01-07
Applicant: 吉林大学
IPC: G06V10/774 , G06V20/40 , G06V40/10 , G06V40/20 , G06V10/764
Abstract: 基于姿态跟踪的孤独症谱系障碍异常肢体行为检测方法属视频行为分析技术领域,本发明先对采集到的儿童诊断视频进行预处理,再用重新训练目标检测算法YOLOv3提取视频中所有人的检测框,裁剪得到子图,使用HRNet人体姿态估计方法对子图进行人体关节点检测,并使用OSNet行人重识别网络提取子图的表观特征进行多目标跟踪,得到儿童左右肩、肘、腕的运动轨迹,再对运动轨迹进行运动速度均值和运动速度标准偏差计算,将得到的特征用随机森林算法进行留一交叉验证,最终对分类结果进行综合判断;本发明对儿童左右肩、肘、腕进行运动轨迹检测,比单一的关节检测信息更加全面,提取有关运动速度的两类特征综合判断,从而提升检测的准确率。
-
公开(公告)号:CN114332380B
公开(公告)日:2024-08-09
申请号:CN202210001079.4
申请日:2022-01-04
Applicant: 吉林大学
Abstract: 基于单目RGB相机与三维体表示的光场视频合成方法属自由立体显示技术领域,本发明包括:1.利用特征提取和特征优化编码器,为当前帧RGB图像提取特征;2.利用像素对齐隐函数和高效的光线投射机制,为当前帧前景图像计算光场图像的估计值;3.利用前向和后向光流信息,为当前帧光场图像计算其估计值的时域一致性损失;4.通过对全局损失、局部损失、时域一致性损失加权求和,构造目标函数;5.通过最小化目标函数,得到当前帧光场图像的最优估计;本发明通过采用单目RGB相机与三维体表示,在保证光场图像空域和角度域一致性的基础上,能提高其时域一致性,从而提升自由立体显示内容采集的便捷性、鲁棒性,以及动态人体画面的稳定性。
-
公开(公告)号:CN116740793A
公开(公告)日:2023-09-12
申请号:CN202310942697.3
申请日:2023-07-31
Applicant: 吉林大学
IPC: G06V40/16 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 基于跨层多尺度通道相互注意学习的人脸表情识别方法属图像处理和模式识别技术领域,本发明使用CMSCMAL‑Net模型,完成对自然场景下人脸表情的识别,在表情模糊或存在遮挡情况下有较好的鲁棒性。本发明引入多尺度通道注意力机制改进主干网络,在局部特征和全局特征相结合的基础上保留和突出低层特征中的细微细节,同时将主干网络从浅到深划分成不同的阶段,浅层阶段学习低层的细节信息,深层阶段学习高级抽象语义信息,并采用渐进多步骤策略进行训练使不同阶段能够互补信息,提升模型的识别效果。本发明为人脸表情识别提供一种细粒度方向的模型,能够更好地捕捉到人脸表情的微妙变化,提高自然场景下人脸表情的识别率。
-
公开(公告)号:CN116634260A
公开(公告)日:2023-08-22
申请号:CN202310632152.2
申请日:2023-05-31
Applicant: 吉林大学
IPC: H04N23/611 , H04N23/695 , H04N23/951 , H04N23/90 , G02B27/01 , B60R1/22
Abstract: 一种基于双目拼接和眼动追踪的视野渲染系统及方法,本发明涉及基于双目拼接和眼动追踪的视野渲染系统及方法。本发明的目的是为了解决现有车外搭载相机的拍摄视角和车内驾驶员的驾车视角无法重合,人眼视觉存在景深模糊现象,这种视觉特性在计算机渲染结果中较难体现,以及全聚焦的显示画面可能会分散驾驶员的驾车注意力的问题。系统包括:左相机、右相机、处理器、电源、眼动追踪仪和显示屏;其中显示屏垂直置于人眼的前方,人眼在显示屏上的投影位于显示屏的中心;眼动追踪仪固接于显示屏的上方;显示屏的显示方向和眼动追踪仪的采集方向都与人眼的观察方向相反;左相机和右相机并排固接于显示屏的后方区域。本发明用于图像处理技术领域。
-
公开(公告)号:CN115935295A
公开(公告)日:2023-04-07
申请号:CN202310016282.3
申请日:2023-01-05
Applicant: 吉林大学
IPC: G06F18/25 , A61B5/11 , A61B5/318 , A61B5/00 , G06N3/048 , G06N3/047 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 基于心冲击信号多尺度特征融合的心电信号智能生成方法属人体生理信号处理技术领域,本发明提出了一种多尺度特征融合变换网络,简称MFFTN,该网络由序列变换模块、多尺度特征融合模块、变换模块构成;MFFTN通过序列变换模块将心冲击信号波形归一化,多尺度特征融合模块提取心冲击信号的不同尺度特征进行融合,再通过变换模块生成心电信号,最后通过序列变换模块校准波形;本发明网络能有效从心冲击信号恢复心电信号,生成的心电信号与参考的心电信号相关系数为98.9%,为后续心脏疾病的居家监测和识别奠定了基础。
-
公开(公告)号:CN115686202A
公开(公告)日:2023-02-03
申请号:CN202211269398.X
申请日:2022-10-17
Applicant: 吉林大学
Abstract: 跨Unity/Optix平台的三维模型交互渲染方法属自由立体显示技术领域,本发明包括:1.设定手势交互动作;2.在Unity中导入三维场景网格模型组,将其赋予顶点颜色、变换坐标系、合并;3.创建三维曲线网格模型;4.在Optix中创建三维场景网格模型和三维曲线网格模型;5.循环执行三维模型交互,包括:读取交互指令、更新Unity中的三维场景网格模型和三维曲线网格模型,并将模型数据传送给Optix中的对应模型,渲染虚拟视点图像阵列;本发明通过结合Unity可快速编辑动态三维模型和Optix可实时生成虚拟视点图像阵列的优势,能使裸眼三维显示系统具有流畅的三维场景模型控制和三维曲线空中绘制功能。
-
公开(公告)号:CN115022635A
公开(公告)日:2022-09-06
申请号:CN202210605495.5
申请日:2022-05-31
Applicant: 吉林大学
IPC: H04N19/119 , H04N19/147 , H04N19/94
Abstract: 基于目标检测的星图压缩方法,属于图像处理领域,解决了现有星图编码方法存在的目标检测精度低、图像压缩效率与图像局部细节保留难以权衡的问题。该方法包括:将星图划分为多个像素大小相同的子图像,作为一级编码单元;采用最大类间方差法对多个一级编码单元分别进行自适应阈值目标检测;同时统计检测点周围八邻域内被划分为目标区域和背景区域的像素点数量;根据自适应阈值目标检测结果进行编码单元的细化分;采用自适应量化参数的方法对细化分后的编码单元进行压缩编码。本发明通过自适应阈值目标检测,提高了检测精度;在同等压缩率下,由本发明编解码后图像局部的细节保留效果更好,峰值信噪比更高。
-
公开(公告)号:CN114332380A
公开(公告)日:2022-04-12
申请号:CN202210001079.4
申请日:2022-01-04
Applicant: 吉林大学
Abstract: 基于单目RGB相机与三维体表示的光场视频合成方法属自由立体显示技术领域,本发明包括:1.利用特征提取和特征优化编码器,为当前帧RGB图像提取特征;2.利用像素对齐隐函数和高效的光线投射机制,为当前帧前景图像计算光场图像的估计值;3.利用前向和后向光流信息,为当前帧光场图像计算其估计值的时域一致性损失;4.通过对全局损失、局部损失、时域一致性损失加权求和,构造目标函数;5.通过最小化目标函数,得到当前帧光场图像的最优估计;本发明通过采用单目RGB相机与三维体表示,在保证光场图像空域和角度域一致性的基础上,能提高其时域一致性,从而提升自由立体显示内容采集的便捷性、鲁棒性,以及动态人体画面的稳定性。
-
公开(公告)号:CN112969062B
公开(公告)日:2021-12-07
申请号:CN202110161371.8
申请日:2021-02-05
Applicant: 吉林大学
IPC: H04N13/302 , H04N13/398 , G06F3/01
Abstract: 一种三维模型二维视图与裸眼三维影像双屏联动显示方法属自由立体显示技术领域,本发明包括:1.建立双屏联动显示系统,包括配置Optix的处理器、Leap Motion、立体显示屏、平面显示屏;2.设置参数值;3.导入三维模型和二维合成图的像素‑视点对应矩阵;4.创建虚拟相机阵;5.设置参考虚拟相机;6.联动显示三维模型的二维视图和裸眼三维影像,包括手势交互、更新相机参数、生成与显示二维视图和二维合成图、形成裸眼三维影像等步骤;本发明能让医生利用手掌的旋转和抓取实时控制三维医学模型平面视图和裸眼立体画面的观看角度和尺寸缩放,实现解剖结构多视角、多尺寸空间信息的交互观看,从而提升医疗的效率和可靠性。
-
-
-
-
-
-
-
-
-