-
公开(公告)号:CN111860434B
公开(公告)日:2021-05-25
申请号:CN202010757141.3
申请日:2020-07-31
Applicant: 贵州大学
Abstract: 本发明公开了一种机器人视觉隐私行为识别与保护方法,包括:机器人以图像数据为输入,采用融合注意力模型的卷积神经网络场景识别算法,获得用于识别隐私场景的特征模型;然后,以隐私场景的图像数据和隐私场景图像语义特征数据为输入,采用涉隐私图像语义特征描述算法,获得将图像信息转换为文本信息的语义特征模型;最后,以机器人摄像头视频流为输入,采用基于近似等价转换的视觉隐私识别与保护算法,将机器人摄像头视频流中包含隐私的片段用相应的监护要素文本信息进行替换,实现隐私场景的近似等价转换,从而实现对隐私场景的保护。本发明能采用文本的形式描述视觉所感知监护要素信息,以保护用户敏感隐私。
-
公开(公告)号:CN112435310A
公开(公告)日:2021-03-02
申请号:CN202011279854.X
申请日:2020-11-16
Applicant: 贵州大学
Abstract: 本发明的一种基于形状文法和神经网络的图案设计方法,包括:步骤一、基于形状文法的纹样参数化:1)特征分析与提取;2)规则定义及编码方法构建;3)规则重用和参数演化生成设计;4)规则重用结果检测及可视化;步骤二、通过图案构图样本的获取与视觉认知意象的量化构建用户视觉认知意象空间;步骤三、构建基于神经网络的设计参数与风格意象关系模型,利用遗传算法优化该神经网络关系模型,得到最优纹样设计参数,完成纹样图案设计。本发明具有能提供符合意象值的最优设计参数解,生成符合消费者风格意象需求的特点。
-
公开(公告)号:CN110363183B
公开(公告)日:2020-05-08
申请号:CN201910695530.5
申请日:2019-07-30
Applicant: 贵州大学
Abstract: 本发明公开了一种基于生成式对抗网络的服务机器人视觉图片隐私保护方法,其特征在于:所述隐私识别与保护包括数据预处理、隐私识别、图片转换等功能,由视觉数据的采集端采集的数据首先进行数据预处理,然后由隐私识别模块判定输入的预处理数据是否存在隐私,如果判定为涉及隐私的图片,进行图片转换,转换成不涉及隐私的图片数据并进行存储;训练数据生长与特征学习是用于训练数据集的更新,并基于训练数据集,通过改进的Cycle‑GAN算法获取特征模型,用于所述图片转换。本发明能从源头上使图片数据本身不涉及隐私内容,且具有训练时间短、隐私图片转化的泛化能力强的特点。
-
公开(公告)号:CN109086526A
公开(公告)日:2018-12-25
申请号:CN201810878219.X
申请日:2018-08-03
Applicant: 贵州大学
Abstract: 本发明公开了一种基于分层形状文法的民族纹样设计方法,包括以下步骤:(1)选取一个民族纹样,根据形状文法提取其组成的形状及形状规则,引入图层,根据纹样形状特征进行分层,形成分层形状文法;将分层后的形状和规则运用分层形状文法进行纹样的演变推理,生成大量不同形状,连接各个形状节点,生成形状衍生树;(2)制定约束条件和目标,采用执行优先搜索方法约束修剪形状衍生树,排除不符合条件的节点,对纹样方案进行优化;(3)采用交互式选择的方法,让设计师根据个人的风格和理念从满足条件的形状中选出理想的纹样,完成最终的纹样设计方案。本发明能大批量、多样化、快捷地进行民族纹样的设计,且具有通用性强、计算效率高的特点。
-
公开(公告)号:CN107944953A
公开(公告)日:2018-04-20
申请号:CN201711134307.0
申请日:2017-11-16
Applicant: 贵州大学
CPC classification number: G06Q30/0621 , G06T17/10 , G06T19/00
Abstract: 本发明公开了一种基于形状文法与TRIZ原理的文化创意产品定制方法,包括下述步骤:(1)产品形态表征:利用形状文法,对传统的文化产品的形态进行描述;(2)产品形态解析与重构:基于步骤(1)中的产品形态表征,利用TRIZ理论进行形态的演化,结合形状文法的推理规则,建立形态推演规则,实现产品形态重构,建立基于TRIZ理论的产品形态推演模型;(3)创新设计:根据TRIZ发明问题解决理论,以用户的诉求和文化创意产品形态的要求为起点,结合形状文法进行思维发散与整合,进行创新设计,生成设计方案,实现文化产品的定制化设计。本发明具有对传统的文化产品形态进行描述,并在形态设计中结合进化模式进行计算机创新设计的特点。
-
公开(公告)号:CN107798202A
公开(公告)日:2018-03-13
申请号:CN201711134271.6
申请日:2017-11-16
Applicant: 贵州大学
IPC: G06F17/50
CPC classification number: G06F17/5004
Abstract: 本发明公开了一种基于案例推理的木制民居定制方法,包括下述步骤:(1)对木制民居数据资料进行采集、整理、分类、统计、分析,构建木质民居案例库,该案例库包括:民居户型库、功能结构库、文化资源库、数据资源库;(2)基于民居原始案例库,将木制民居形态构成通过规则映射为一个多元化的木制民居结构树,每一个树状结点根据层级不同代表不同的木制民居结构要素,形成基于结构树的产品配置设计表征模;(3)木制民居配置设计流程。本发明具有能对用户需求进行数字化表征,且提取结果准确的特点。本发明不仅能够实现传统木质民居个性化的定制设计,而且实现了传统非物质文化遗产的数字化保护和传承。
-
公开(公告)号:CN119808911A
公开(公告)日:2025-04-11
申请号:CN202411847689.1
申请日:2024-12-16
Applicant: 贵州大学
IPC: G06N5/022 , G06V20/70 , G06V10/28 , G06V10/762
Abstract: 本发明的一种基于图像驱动的产品知识图谱构建方法,包括:产品知识图谱本体构建;根据所述蜡染产品的本体类和本体关系,构建蜡染产品本体框架,结合预处理的产品图像数据,进行图像驱动的蜡染产品知识图谱的构建,包括实体获取与关系获取;获取实体集合E,表示为E=EIMG U ETEXT,其中EIMG表示图像实体,包括产品、纹样、代表性纹样实体,ETEXT表示文本型的实体,包括主题、布局、纹样种类实体;产品知识图谱可视化;针对组成关系的自动更新,从蜡染产品图像中自动提取出纹样,基于目标检测技术进行实现。本发明具有通过和图像数据相结合构建知识图谱的特点。
-
公开(公告)号:CN111325112B
公开(公告)日:2023-04-07
申请号:CN202010077631.9
申请日:2020-01-31
Applicant: 贵州大学
IPC: G06F18/10 , G06F18/213 , G06N3/0464 , G06N3/044
Abstract: 本发明公开了一种基于深度门控循环单元神经网络的刀具磨损状态监测方法,包括:利用传感器实时采集刀具加工过程中产生的振动信号,经小波阈值去噪后输入一维卷积神经网络中进行单个时间步时序信号局部特征提取,然后输入改进的深度门控循环单元神经网络CABGRUs中进行时序信号时间序列特征提取,引入Attention机制计算网络权重并对其进行合理分配,最后,将不同权重的信号特征信息放入Softmax分类器对刀具磨损状态进行分类,避免因人工提取特征带来的复杂性和局限性;同时有效解决了单卷积神经网络忽略时序信号前后关联问题,通过引入了Attention机制提高了模型的准确率。因此,本发明具有提高刀具磨损状态监测的实时性和准确性的特点。
-
公开(公告)号:CN114612770A
公开(公告)日:2022-06-10
申请号:CN202210277747.6
申请日:2022-03-21
Applicant: 贵州大学
Abstract: 本发明公开了一种基于卷积神经网络的物品检测方法,包括:步骤一:对样本图像进行处理;步骤二:构建目标检测网络模型:该目标检测网络模型以RFBNet网络为基础,首先采用双线性插值方法对RFBNet网络的卷积层Conv7、卷积层Conv9_2的特征图扩大到与卷积层Conv4_3特征图相同的尺寸,然后利用concat通道拼接方式进行特征融合,最后通过加入基于通道注意力机制的挤压激励SE模块;步骤三:训练目标检测网络模型;步骤四:使用目标检测网络模型进行检测,得到检测结果。本发明具有能够满足实时性的前提下,提高小目标物品检测精度的特点。
-
公开(公告)号:CN113858210A
公开(公告)日:2021-12-31
申请号:CN202111285348.6
申请日:2021-11-01
Applicant: 贵州大学
Abstract: 本发明公开了一种基于混合算法的机械臂路径规划方法,其特征在于:首先初始化树节点并不断检测当前节点和障碍物之间的距离,若检测到当前节点与障碍物之间的最小距离大于两倍的步长时,则说明当前节点附近没有障碍物,采用改进的人工势场方法进行快速拓展,若检测到当前节点与障碍物之间的最小距离小于两倍的步长的时,则采用改进的RRT算法,充分利用RRT算法高效的避障能力,重复上述步骤直至到达目标点。该混合算法可以有效地提高路径搜索效率,解决人工势场法存在的当起始点存在障碍物时斥力很大造成路径曲折和当目标点有障碍物的时候目标不可达的现象,同时该混合算法也解决了改进的RRT算法存在的当障碍物较多时效率大幅较低的现象。
-
-
-
-
-
-
-
-
-