针对现有提示优化方法在可扩展性与自适应性方面的局限,本研究提出一种基于Puma算法的多目标提示优化框架Puma-MOPT。该框架结合Puma算法的自适应相位切换和全局搜索能力与PromptWizard的提示生成及评估机制,以实现对提示词的自动搜索和多目标权衡。为提高搜索效率并增强小样本场景下的泛化能力,Puma-MOPT框架引入语义相似性约束并采用对抗过滤技术。在数学推理、医疗问答和代码生成等五个领域的实验结果表明,该框架在多个评估指标上均显著优于NSGA-II、MOEA/D、EvoPrompt和PromptWizard等基线方法。Puma-MOPT为大语言模型(LLM)提示工程提供一种高效、鲁棒且通用的解决方案。