随着人工智能(artificial intelligence, AI)技术的快速发展,医学图像分析成为AI应用的重点领域.然而, AI模型的“黑箱”性质(即缺乏明确解释的决策过程)阻碍了其在临床实践中的广泛应用.因此,可解释人工智能(eXplainable AI, XAI)算法近年来受到广泛关注,是提升AI解决方案透明性和可信度的关键研究方向.本文对现有XAI技术进行了分类和总结,概述了当前应用于医学图像分析的XAI技术的最新进展,探讨了这些技术如何提升机器学习和深度学习模型的决策透明度与临床接受度.本文还回顾了近5年XAI技术在医学影像诊断、自动分割、疾病预测和治疗效果评估等任务中的主要工作和应用,展示了XAI技术如何帮助揭示模型决策依据,改善医生对AI系统的信任度.此外,本文总结了XAI技术在医学图像分析领域目前面临的挑战,为未来的研究与开发提供指导,推动AI技术的透明化、可信化与高效化应用.