目标内容自动生成方法、装置、电子设备及可读存储介质

    公开(公告)号:CN117332823B

    公开(公告)日:2024-03-05

    申请号:CN202311596641.3

    申请日:2023-11-28

    Abstract: 本发明公开了一种目标内容自动生成方法、装置、电子设备及可读存储介质,应用于人工智能领域。其中,方法包括将用户的目标内容生成请求作为提示信息输入至自然语言任务处理模型得到指示任务,通过指令接口调用相应外部执行程序执行任务得到初始目标内容;利用当前长期记忆数据对指示任务和初始目标内容进行处理得到目标更新任务;将目标更新任务、初始目标内容和当前短期记忆数据作为下一轮次的提示信息输入至自然语言任务处理模型,循环执行直至指示任务为终止指令,将其上一轮次的初始目标内容作为目标内容进行输出。本发明可以解决相关技术低精度、低效率且高成本智能生成内(56)对比文件Feng Xiaocheng 等.Topic-to-EssayGeneration with Neural Networks《.PROCEEDINGS OF THE TWENTY-SEVENTHINTERNATIONAL JOINT CONFERENCE ONARTIFICIAL INTELLIGENCE》.2018,4078-4084.Xu Zhen 等.Dynamic Working Memory forContext-Aware Response Generation《.IEEE/ACM Transactions on Audio, Speech, andLanguage Processing》.2019,第27卷(第9期),1419-1431.Minlie Huang 等.Challenges inBuilding Intelligent Open-domain DialogSystems《.ACM Transactions on InformationSystems》.2020,第38卷(第3期),1–32.罗威.长时记忆循环神经网络算法研究《.中国博士学位论文全文数据库 信息科技辑》.2022,第2022年卷(第1期),I140-61.

    一种预训练语言模型的信息处理方法、装置、设备及介质

    公开(公告)号:CN116955578B

    公开(公告)日:2024-01-19

    申请号:CN202311221189.2

    申请日:2023-09-21

    Abstract: 本发明公开了一种预训练语言模型的信息处理方法、装置、设备及介质,应用于人工智能技术领域,为解决现有的预训练语言模型不能更好地满足用户需求的问题,提出通过本地预训练语言模型在循环生成待回复文本的下一个词时,生成当前词典概率表;根据当前词典概率表中的各词判断是否存在最优词;若是,则将最优词作为下一个词进行生成;若否,则基于当前已生成文本生成对应的自然语言问题及问题类型;基于问题类型将自然语言问题发送至其他相应的预训练语言模型,并接收各个预训练语言模型返回的答复;从各个答复中选择出最优答复,并将最优答复作为下一个词进行生成;从而可以使基于本地预训练语言模型智能体能更好满足用户需求,提高用户使用体验。

    目标内容自动生成方法、装置、电子设备及可读存储介质

    公开(公告)号:CN117332823A

    公开(公告)日:2024-01-02

    申请号:CN202311596641.3

    申请日:2023-11-28

    Abstract: 本发明公开了一种目标内容自动生成方法、装置、电子设备及可读存储介质,应用于人工智能领域。其中,方法包括将用户的目标内容生成请求作为提示信息输入至自然语言任务处理模型得到指示任务,通过指令接口调用相应外部执行程序执行任务得到初始目标内容;利用当前长期记忆数据对指示任务和初始目标内容进行处理得到目标更新任务;将目标更新任务、初始目标内容和当前短期记忆数据作为下一轮次的提示信息输入至自然语言任务处理模型,循环执行直至指示任务为终止指令,将其上一轮次的初始目标内容作为目标内容进行输出。本发明可以解决相关技术低精度、低效率且高成本智能生成内容的问题,能够高效、高精度且低成本自动生成目标内容。

    云边端协同方法、装置、系统、电子设备及可读存储介质

    公开(公告)号:CN117097797A

    公开(公告)日:2023-11-21

    申请号:CN202311353873.6

    申请日:2023-10-19

    Abstract: 本发明公开了一种云边端协同方法、装置、系统、电子设备及可读存储介质,应用于云技术领域。其中,方法包括云中心服务器预先部署通用知识模型;通用知识模型包括数据接口网络、特征提取网络和任务接口网络;云中心服务器检测到符合云边交互条件,将通用知识模型下发至各边缘服务器,各边缘服务器通过双向蒸馏方式对其本地模型和通用知识模型进行训练。其中,数据接口网络对不同模态的输入数据进行处理,以满足特征提取网络的输入数据的格式要求;任务接口网络基于所属任务类型对特征提取网络输出的特征信息进行转换。本发明可以解决相关技术不能实现云边端环境下的数据协同共享的问题,能够实现云边端环境下的数据协同共享。

    一种预训练语言模型的信息处理方法、装置、设备及介质

    公开(公告)号:CN116955578A

    公开(公告)日:2023-10-27

    申请号:CN202311221189.2

    申请日:2023-09-21

    Abstract: 本发明公开了一种预训练语言模型的信息处理方法、装置、设备及介质,应用于人工智能技术领域,为解决现有的预训练语言模型不能更好地满足用户需求的问题,提出通过本地预训练语言模型在循环生成待回复文本的下一个词时,生成当前词典概率表;根据当前词典概率表中的各词判断是否存在最优词;若是,则将最优词作为下一个词进行生成;若否,则基于当前已生成文本生成对应的自然语言问题及问题类型;基于问题类型将自然语言问题发送至其他相应的预训练语言模型,并接收各个预训练语言模型返回的答复;从各个答复中选择出最优答复,并将最优答复作为下一个词进行生成;从而可以使基于本地预训练语言模型智能体能更好满足用户需求,提高用户使用体验。

Patent Agency Ranking