基于GPU的洪涝模型计算效率提升方法研究

2025-07-01 20 1.71M 0

  摘要:受全球气候变暖和极端暴雨的双重影响,洪涝灾害频发,提高洪涝模型计算效率对洪涝实时模拟预报至关重要。然而,精细化洪涝模拟带来的巨大计算量导致模型无法满足实时计算结果并发布洪涝预警的需求。构建了基于GPU加速技术的高效高精度全水动力数值模型,定量研究了GPU和CPU在洪涝模拟时的计算效率。结果表明:(1)相同情境下,NVIDIA Tesla P100-PCIE相比其他类型计算引擎的计算效率最优;(2)DEM网格分辨率相同时,GPU计算效率随着降雨重现期的增加而提升,GPU/CPU并行计算效率加速比为1.25~16.28倍;(3)降雨重现期相同时,DEM网格分辨率精度越高,GPU加速效率越显著,网格分辨率为3 m和5 m时,NVIDIA GeForce GTX 980Ti计算效率分别为CPU(单核)的4.32倍和3.26倍,NVIDIA Tesla P100-PCIE分别为CPU(单核)的16.28倍和7.86倍。综上,在保障较好的模拟精度的同时,DEM网格分辨率越精细,GPU加速计算效率越高。



您还没有登录,请登录后查看详情



 
举报收藏 0打赏 0评论 0
本类推荐
下载排行
网站首页  |  关于我们  |  联系方式  |  用户协议  |  隐私政策  |  版权声明  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  蜀ICP备2024057410号-1