-
公开(公告)号:CN119047823B
公开(公告)日:2025-05-02
申请号:CN202411079274.4
申请日:2024-08-07
Applicant: 北京科技大学
IPC: G06Q10/0635 , G06Q50/26 , G06F30/28 , G06F16/28 , G06F16/2455 , G06F113/08 , G06F119/14
Abstract: 本发明公开了一种城市埋地燃气管网地震灾害链风险分析方法,属于风险分析技术领域,所述方法包括:构建案例库;其中,案例库中包括具有不同属性信息的各类型管段中的每一类型的管段在不同破坏情况下的地震灾害链的模拟结果;针对目标城市埋地燃气管网中的每一管段,根据属性信息以及已构建的案例库,确定所属分类,从案例库中找到对应分类的模拟结果,作为其地震灾害链分析结果;根据目标城市埋地燃气管网中各管段的分布情况和各管段的地震灾害链分析结果,得到目标城市埋地燃气管网的地震灾害链情景。本发明可以实现城市埋地燃气管网地震灾害链风险分析,能够为生命线系统的防灾规划与震后应急提供科学、合理的工具。
-
公开(公告)号:CN115984486A
公开(公告)日:2023-04-18
申请号:CN202310194356.2
申请日:2023-03-03
Applicant: 北京科技大学
Abstract: 本发明涉及土木工程计算机视觉技术领域,特别是指一种融合激光雷达与深度相机的桥梁模型生成方法及装置,一种融合激光雷达与深度相机的桥梁模型生成方法包括:激光雷达和深度相机进行联合标定,获得联合标定参数;将合成点云数据和真实点云数据输入预设的半自动标注算法,获得桥梁语义数据集;根据预设的桥梁数据集、桥梁语义数据集和预设的二维深度学习算法,获得桥梁三维语义模型;根据联合标定参数和所述桥梁三维语义模型,获得重建后桥梁三维语义模型;根据重建后桥梁三维语义模型,通过预设的二次开发程序进行编译,获得桥梁信息模型。本发明是一种精度高、语义信息丰富的桥梁三维信息模型的构建方法。
-
公开(公告)号:CN115937425A
公开(公告)日:2023-04-07
申请号:CN202211625561.1
申请日:2022-12-16
Applicant: 北京科技大学
Abstract: 本发明公开了一种室内地震避难混合现实演练方法及系统,包括下述步骤:根据实际场景的数据获取构件的几何信息和空间信息,建立室内三维场景模型;根据室内三维场景模型生成震害场景全息影像,将震害场景全息影像投放至实际场景中形成混合现实震害场景;识别混合现实震害场景中的安全区域和危险区域,对安全区域和危险区域进行标注,用于指引演练人员避难;演练人员佩戴混合现实设备在混合现实震害场景中进避难演练;捕捉演练人员的行为并进行记录和评估。本发明利用扫描设备构建了合理、真实的室内震害场景,实现震害场景混合现实展示,使演练人员高效地学习到正确的避难策略,有效提升人员室内地震避难能力,降低人员伤亡。
-
公开(公告)号:CN109544386B
公开(公告)日:2021-07-16
申请号:CN201811320881.X
申请日:2018-11-07
Applicant: 北京科技大学
IPC: G06Q40/08
Abstract: 本发明提供一种基于建筑信息模型的建筑单体地震保险费率厘定方法,属于土木工程技术领域。该方法首先建立基于易损性方法的主要构件地震经济损失预测模块,包括建立建筑信息模型、结构地震时程分析、主要构件震害预测和主要构件经济损失预测;然后建立基于BIM的依附物的地震经济损失预测模块,分为依附物关系判断、依附构件震害评估以及其经济损失预测三部分;最后进行建筑单体精细化地震保险费率厘定,包括建立费率厘定数学模型和计算方法。本发明可以将地震保费计算精确到构件层面,并且涵盖了一般易损性方法无法考虑的主要构件的依附物,极大地提高了地震保险准确性,适合重要建筑单体的精细地震保险费用厘定。
-
公开(公告)号:CN109918710B
公开(公告)日:2020-11-27
申请号:CN201910055369.5
申请日:2019-01-21
Applicant: 北京科技大学
Abstract: 本发明提供一种考虑非结构构件的室内震后三维虚拟场景构建方法,属于土木工程防灾减灾技术领域。该方法首先进行模型构建与计算,包括基于建筑信息模型的结构分析建模与三维场景建模、结构地震动力响应时程分析;然后进行非结构构件破坏判定,包括独立非结构构件的地震惯性力和摩擦力计算、基于易损性数据库的非结构构件的破坏状态判定;最后进行三维场景构建与可视化,包括天花板吊顶面板在地震力作用下随机掉落、隔墙破坏效果的纹理替换、独立非结构构件的运动状态模拟。该方法能够构建具有合理的、真实感的室内非结构构件震后三维场景,可为建筑室内应急疏散和救援相关虚拟演练提供了三维场景支持,也可直接用于地震安全相关的教学与宣传。
-
公开(公告)号:CN111325385B
公开(公告)日:2020-11-06
申请号:CN202010084623.7
申请日:2020-02-10
Applicant: 北京科技大学
Abstract: 本发明提供一种基于BIM和数值模拟的建筑火灾灾损预估方法,包括:建立建筑信息BIM模型,并转换为火灾模型,利用数值模拟方法对建筑室内火灾发展情况进行模拟;提取火灾模拟数据,进行温度数据整合和烟气数据整合;将整合后的数据写入建筑信息模型的属性表中,根据整合后的温度数据确定各类建筑构件损伤程度,根据整合后的烟气数据进行污损面积统计;根据构件损伤程度和统计到的烟气污损面积,确定火灾后建筑构件损伤修复金额和烟气污损修复金额;进行建筑构件损伤可视化展示及建筑经济损失可视化展示。本发明能够准确模拟起火后建筑内火灾蔓延情况,并给出精确到构件级别的损伤评估和经济损失预估,为消防部门和保险行业等提供技术支撑。
-
公开(公告)号:CN111325788A
公开(公告)日:2020-06-23
申请号:CN202010082782.3
申请日:2020-02-07
Applicant: 北京科技大学
Abstract: 本发明提供一种基于街景图片的建筑物高度确定方法,能够在有干扰的情况下准确识别出建筑物,有效地提高了建筑物识别的成功率与高度测算的精确度。所述方法包括:获取标注出建筑物区域的街景图像样本集,利用获取的街景图像样本集训练区域卷积神经网络;根据街景图像采集线路地理信息数据,确定观测建筑物所需的观测点,并根据建筑物的地理信息数据,确定观测点到建筑物的观测方向与距离;获取观测点处的街景图像,利用训练好的区域卷积神经网络自动识别获取的街景图像中的建筑物,输出建筑物目标检测结果图像,并结合观测点到建筑物的观测方向与距离,确定建筑物的高度。本发明涉及土木工程技术及计算机技术领域。
-
公开(公告)号:CN107577855B
公开(公告)日:2019-10-18
申请号:CN201710740752.5
申请日:2017-08-25
Applicant: 北京科技大学
IPC: G06F17/50
Abstract: 本发明提供一种基于BIM的建筑喷淋灭火系统震害评价方法,属于土木工程防灾减灾技术领域。该方法包括建筑与喷淋系统建模、喷淋构件震害评估、喷淋系统性能评估和次生火灾模拟四部分,首先设计建筑及自动喷淋灭火系统从BIM模型到火灾数值模型的转换方法,然后提出基于下一代性能化设计标准FEMA P‑58和结构时程分析的喷淋灭火系统构件震害评价方法,进一步提出基于树结构的喷淋系统灭火性能的评估方法,最后在火灾数值模拟平台FDS中,进行受损喷淋系统下以及正常喷淋系统下火灾模拟。本发明可以给出喷淋系统在地震后的整体灭火性能,并且量化喷淋震害对建筑火灾的影响,为加强建筑地震次生火灾的防护提供了重要的评价工具。
-
公开(公告)号:CN107608786A
公开(公告)日:2018-01-19
申请号:CN201710740753.X
申请日:2017-08-25
Applicant: 北京科技大学
Abstract: 本发明提供一种基于GPU和分布式计算的高层建筑群震害分析方法,属于土木工程防灾减灾技术领域。该方法包括基于图形处理单元GPU的线性方程求解和动态荷载均衡策略两部分。线性方程组求解是震害分析中最耗时的部分。利用GPU并行计算优势,针对单个高层建筑震害分析提出了基于GPU的线性方程组求解算法,并借助开源震害分析平台OpenSees进行算法开发,实现高层建筑单体分析的并行加速;基于此,提出适用于高层建筑群的动态负载均衡策略,将不同高层建筑单体计算任务合理分配个不同的GPU,利用GPU集群实现高层建筑群分布式计算。以50个高层建筑为对象,本发明基于GPU的分布式计算效率要比单机效率提高52倍。本发明为高层建筑群的震害分析提供了高性能的计算手段。
-
公开(公告)号:CN107590853A
公开(公告)日:2018-01-16
申请号:CN201710740598.1
申请日:2017-08-25
Applicant: 北京科技大学
Abstract: 本发明提供一种城市建筑群震害高真实度展示方法,属于震害模拟预测技术领域。本发明采用多自由度结构模型对城市大规模建筑群进行地震作用下的非线性时程分析,获得建筑各个楼层的地震反应数据(包括震害等级、位移、速度等)。在此基础上,基于精细化震害数据在三维图形引擎中实现了建筑位移的动态可视化。最后,设计了一个综合物理引擎、图形引擎和时程分析的模拟算法,来表现建筑倒塌的真实感物理过程。本发明以我国一个真实的中型城市作为算例进行应用,具有真实感地展示了城市建筑群震害全过程。本发明为城市的虚拟地震应急演练提供了良好的可视化技术。
-
-
-
-
-
-
-
-
-