一种基于语义对齐和文本融合的文本生成图像方法

    公开(公告)号:CN119722839A

    公开(公告)日:2025-03-28

    申请号:CN202411763238.X

    申请日:2024-12-03

    Abstract: 本发明公开了一种基于语义对齐和文本融合的文本生成图像方法,其分别提取真实图像与生成图像的语义特征,通过判别器中的语义对齐模块对两者的高层语义进行比对和调整,并根据判别器的输出结果对生成器的参数进行更新,确保生成图像在语义层面和细节处理与真实图像保持一致,弥补文本描述的不足,从而提升了整个生成模型的表现;同时,本发明通过星模块卷积层能够更加全面地捕捉文本描述中隐含的细微差异,从而显著增强了图像的细节表现力和生成质量;此外,本发明在生成器添加可变形卷积,有效地保留了复杂的细节信息,使得生成图像在视觉上更加真实,且增强了模型在不同情境和风格下的适应性和一致性。

    一种服装长度可控的虚拟试衣图生成方法

    公开(公告)号:CN116168186A

    公开(公告)日:2023-05-26

    申请号:CN202310177297.8

    申请日:2023-02-28

    Abstract: 本发明公开了一种服装长度可控的虚拟试衣图生成方法,涉及虚拟试衣技术领域。本发明方法主要包括:输入预处理阶段需要的图片,经过预处理去除服装信息、计算服装长度控制向量得到服装未知的人物表示和服装长度控制向量;输入语义预测阶段需要的图片,经过试穿语义分割图生成器生成待调整的试穿语义分割图;输入语义补偿阶段需要的图片,经过基于真值的补偿网络对待调整的试穿语义分割图进行修剪补偿,得到试穿语义分割图;输入服装变形阶段需要的图片,经过服装对齐生成器预测服装形变图;输入试穿图生成阶段需要的图片,经过试穿生成器生成试衣图像。本发明方法提出了新的服装未知的人物表示和服装长度控制向量,实现了服装长度可控的虚拟试穿。

    一种基于DyConvGRU和Unet的预测细化结构的雷达回波外推方法

    公开(公告)号:CN116148864A

    公开(公告)日:2023-05-23

    申请号:CN202310177279.X

    申请日:2023-02-28

    Abstract: 本发明公开了一种基于DyConvGRU和Unet的预测细化结构的雷达回波外推方法,属于短临气象预测领域。该方法依次包括以下步骤:S1:对雷达灰度图像进行预处理,划分训练样本集和测试样本集;S2:构建DyConvGRU和判别器网络,将步骤S1得到的训练样本输入到构建的模型并训练,得到收敛的DyConvGRU和判别器网络;S3:将步骤S1得到的训练样本输入到步骤S2获得的收敛的模型,得到预测结果O;S4:构建Unet和判别器网络,将步骤S3中的输出O输入到构建的模型中并训练,得到收敛的Unet模型和判别器网络;S5:将S1中的测试样本依次输入到步骤S2和步骤S3中收敛的DyConvGRU和Unet模型,得到雷达回波外推图像。本发明能够对雷达外推图像进行有效的预测,为短临气象预报提供有效的技术支持。

    基于注意力融合局部超级特征和全局特征的图像检索方法

    公开(公告)号:CN115238117A

    公开(公告)日:2022-10-25

    申请号:CN202210806327.2

    申请日:2022-07-08

    Abstract: 本发明提供了一种基于注意力融合局部超级特征和全局特征的图像检索方法。该方法主要包含融合特征训练和实时图像检索这两个部分。其中融合特征训练包含两个阶段:局部超级特征的提取,局部超级特征和全局特征的融合。局部超级特征的提取是通过迭代注意力模型提取出有用的局部特征,通过正样本对特征匹配训练,找出最有用的局部超级特征;局部超级特征和全局特征的融合是将找出的局部超级特征与全局特征的信息进行正交融合,得到一个单一多维的特征向量用于检索。本发明方法可以精确提取出图像的有用特征,同时特征数据量小,信息高度集中,检索速度更快,存储空间要求更低,进而能更好的用于图像检索任务。

    中文字符和拼音相结合的词向量表示方法、装置、介质

    公开(公告)号:CN112464655A

    公开(公告)日:2021-03-09

    申请号:CN202011356716.7

    申请日:2020-11-27

    Abstract: 本发明公开了一种中文字符和拼音相结合的词向量表示方法、装置、介质。该方法包括步骤:S11:将待转换为词向量表示的中文文本中每个中文字符转化为拼音;S12:针对中文文本中每个中文字符,利用预训练的中文字符词嵌入模型,得到中文字符的词向量表示;S13:针对中文文本中每个中文字符的拼音,利用预训练的拼词嵌入模型,得到拼音的词向量表示;S14:针对中文文本中每个中文字符,融合两种词向量表示得到字符融合表示向量。本发明通过中文字符和拼音相合的方法,在可区分同音字的基础上,建立了同音字之间的关系信息,从而能够很好地处理同音字噪声。本发明可以用于但不限于不良信息的过滤。

    混合时空平面局部二值模式的自发微表情定位方法

    公开(公告)号:CN109800771B

    公开(公告)日:2021-03-05

    申请号:CN201910089341.3

    申请日:2019-01-30

    Abstract: 本发明公开一种混合时空平面局部二值模式的自发微表情定位方法。本发明根据自发微表情视频中连续帧的相关性,通过精细匹配实现了像素级人脸区域对齐,从而对头部偏移等干扰具有较强的抗干扰能力。同时在空间轴平面提取扇形区域特征,并在时间轴提取去冗余的线性特征,既减少了特征点冗余计算,又通过非线性特征融合的方式结合时空特征,形成更完备的特征表示,因此能更加鲁棒地表示自发微表情,提高了自发微表情视频中自发微表情定位精确率。

    基于全局关系一致性约束的局部特征点验证方法

    公开(公告)号:CN106649624B

    公开(公告)日:2020-03-03

    申请号:CN201611109737.2

    申请日:2016-12-06

    Inventor: 姚金良 杨醒龙

    Abstract: 本发明公开了一种基于全局关系一致性约束的局部特征点验证方法。本发明包括三部分:离线学习、局部特征点量化和特征点投票验证。离线学习用于视觉词汇词典的构建。局部特征点量化包括三步骤:1.局部特征点的提取。2.特征描述子的量化。3.主方向、尺度和方位量化;视觉词汇验证部分所使用的方法包括两种,一种是弱关系一致性验证,一种是强几何验证。两种方法均采用投票的机制验证候选特征点,步骤类似:1.候选图像与候选特征点的获取。2.通过投票验证候选特征点。本发明能够适应图像裁剪、旋转、尺度缩放等变换带来的影响,可用于基于视觉词汇的图像检索和分类等应用中。

    基于局部特征强化和重排序的图像检索方法、介质及设备

    公开(公告)号:CN119027694A

    公开(公告)日:2024-11-26

    申请号:CN202410979619.5

    申请日:2024-07-22

    Inventor: 姚金良 陈捷丰

    Abstract: 本发明公开一种基于局部特征强化和重排序的图像检索方法、介质及设备。本发明构建特征提取模型,通过引入一种局部特征强化编码器,提取了特征图中感兴趣区域的局部几何结构信息,使感兴趣区域中的特征得到更高的权重,降低非重要区域对全局特征的干扰,使得编码器更能准确提取图像中的重要内容。本发明引入一种特征融合模块,通过特征融合得到兼顾局部和全局的融合特征图。加入重排序技术,使模型可以根据图像库的信息更新查询图像和图像库图像的特征向量,使查询图像特征向量与图像库特征向量更为适配,提升了检索结果的准确率。本发明在ROxford5K数据集、RParis6K数据集和Revisitop1m数据集上进行了训练及评估,相较于以往方法,本发明有更好的效果。

    一种基于拼音的同音字变体处理方法

    公开(公告)号:CN114357984A

    公开(公告)日:2022-04-15

    申请号:CN202111414363.6

    申请日:2021-11-25

    Inventor: 姚金良 胡创

    Abstract: 本发明公开了一种基于拼音的同音字变体处理方法,包括步骤:S1:使用拼音生成工具,生成正常文本序列对应的拼音序列;S2:将正常文本的拼音序列作为输入,正常文本序列作为输出,训练拼音转汉字模型;S3:使用拼音生成工具,生成带有同音字变体文本序列对应的拼音序列;S4:将生成的带有同音变体文本的拼音序列作为S2中拼音转汉字模型的输入,得到的输出即正常文本序列。现有变体处理方法无法很好地处理同音字变体,本发明中基于拼音还原了同音字变体对应的文本,最终进一步提高了不良文本识别的准确率。

Patent Agency Ranking