一种图像生成方法、装置、设备及计算机可读存储介质

    公开(公告)号:CN117474796B

    公开(公告)日:2024-04-05

    申请号:CN202311813617.0

    申请日:2023-12-27

    Abstract: 本发明涉及图像生成技术领域,具体公开了一种图像生成方法、装置、设备及计算机可读存储介质,在利用文生图扩散模型对待处理文本进行预设次数的去噪处理的过程中,在每次去噪处理中对生成的中间图像进行图像识别,根据图像识别结果和待处理文本的内容误差更新文生图扩散模型的第一阶段去噪向量,得到第二阶段去噪向量,以第二阶段去噪向量作为本次去噪处理的去噪向量;利用最终的第二阶段去噪向量生成与待处理文本对应的结果图像。通过两阶段去噪,加强了每次去噪过程中对待处理文本中包含的细节信息的把控,由此生成的结果图像可以对待处理文本中包含的细节信息进行精准刻画,从而提高了文本图像模态转换的准确性。

    数据异构条件下的图像处理方法、联邦学习方法及装置

    公开(公告)号:CN117808127A

    公开(公告)日:2024-04-02

    申请号:CN202410230103.0

    申请日:2024-02-29

    Abstract: 本发明公开了一种数据异构条件下的图像处理方法、联邦学习方法及装置,涉及图像处理技术领域,根据数据分布相似性对边缘计算设备分簇,簇内边缘计算设备具有相似的数据分布,可以让模型更好的捕捉到数据的特征,有效解决数据异构问题。簇内的边缘计算设备根据簇内树形聚合网络进行模型参数聚合,下层的边缘计算设备只向上一层中相应的边缘计算设备发送模型参数,而不向其他边缘计算设备发送模型参数,这样可以极大降低通信开销。边缘计算设备与边缘云服务器在联邦学习过程中进行两层模型参数聚合,得到准确可靠的图像处理模型,最终边缘计算设备使用该准确可靠的图像处理模型进行图像处理,可以提升图像处理的准确性与可靠性。

    基于预训练语言模型的三维场景生成方法及相关组件

    公开(公告)号:CN117475089B

    公开(公告)日:2024-03-29

    申请号:CN202311811992.1

    申请日:2023-12-27

    Abstract: 本申请公开了一种基于预训练语言模型的三维场景生成方法及相关组件,涉及人工智能领域,解决现有三维场景生成精度低的问题。该方案通过获取用户输入的第一文本描述信息,对其进行解析,得到场景空间信息和三维物体的第二文本描述信息,可以更精确地了解目标三维场景的要求和构成;根据解析得到的信息生成三维场景空间布局,并根据第二文本描述信息生成相应的三维物体数据,最后通过融合得到最终的目标三维场景。本申请采用分而治之的思想,更注重对第一文本描述信息的解析和理解,将其分解为多个细节,并通过分步骤生成场景空间布局和三维物体的三维物体数据,最后再将其融合,使最终得到的目标三维场景的细节更准确。

    一种图像生成方法、装置、设备及计算机可读存储介质

    公开(公告)号:CN117474796A

    公开(公告)日:2024-01-30

    申请号:CN202311813617.0

    申请日:2023-12-27

    Abstract: 本发明涉及图像生成技术领域,具体公开了一种图像生成方法、装置、设备及计算机可读存储介质,在利用文生图扩散模型对待处理文本进行预设次数的去噪处理的过程中,在每次去噪处理中对生成的中间图像进行图像识别,根据图像识别结果和待处理文本的内容误差更新文生图扩散模型的第一阶段去噪向量,得到第二阶段去噪向量,以第二阶段去噪向量作为本次去噪处理的去噪向量;利用最终的第二阶段去噪向量生成与待处理文本对应的结果图像。通过两阶段去噪,加强了每次去噪过程中对待处理文本中包含的细节信息的把控,由此生成的结果图像可以对待处理文本中包含的细节信息进行精准刻画,从而提高了文本图像模态转换的准确性。

    一种预训练语言模型的信息处理方法、装置、设备及介质

    公开(公告)号:CN116955578B

    公开(公告)日:2024-01-19

    申请号:CN202311221189.2

    申请日:2023-09-21

    Abstract: 本发明公开了一种预训练语言模型的信息处理方法、装置、设备及介质,应用于人工智能技术领域,为解决现有的预训练语言模型不能更好地满足用户需求的问题,提出通过本地预训练语言模型在循环生成待回复文本的下一个词时,生成当前词典概率表;根据当前词典概率表中的各词判断是否存在最优词;若是,则将最优词作为下一个词进行生成;若否,则基于当前已生成文本生成对应的自然语言问题及问题类型;基于问题类型将自然语言问题发送至其他相应的预训练语言模型,并接收各个预训练语言模型返回的答复;从各个答复中选择出最优答复,并将最优答复作为下一个词进行生成;从而可以使基于本地预训练语言模型智能体能更好满足用户需求,提高用户使用体验。

    一种文本编码方法、模型训练方法、模型匹配方法及装置

    公开(公告)号:CN116246288B

    公开(公告)日:2023-08-04

    申请号:CN202310520313.9

    申请日:2023-05-10

    Abstract: 本发明公开了一种文本编码方法、模型训练方法、模型匹配方法及装置,涉及数据编码技术领域,该文本编码方法包括:获取程序性文本数据;其中,程序性文本数据包括步骤文本和成分文本;根据步骤文本的顺序,对各步骤文本进行融合,生成重组序列;根据各成分文本的成分特征、各步骤文本的步骤文本特征和重组序列,生成程序性文本数据对应的特征树;根据特征树,生成程序性文本数据对应的文本编码;本发明以程序性文本中步骤信息和成分信息的结构建立树形关系,使得编码结果能够包含程序性文本中步骤与成分之间的相互依赖关系,提升了编码结果的准确性。

Patent Agency Ranking