摘要:[目的]大语言生成模型为中文开放关系抽取任务带来了新思路,但如何优化模型生成的关系抽取结果质量成为一个重要问题。[方法]本文提出一种低成本的基于多维度自我反思学习的大模型微调方法(SRLearn方法),自动引导模型进行多维度的自我反思学习,从而优化模型的中文关系抽取生成质量。[结果]相比LoRA+DPO偏好微调方法,SRLearn方法在WikiRE1.0数据集上提高了15个百分点,在DuIE2.0数据集上提高了6.5个百分点,验证了该方法的有效性。[局限]SRLearn方法未来还需要考虑覆盖更多的生成质量问题。[结论]基于多维度自我反思学习增强的大模型微调方法能够大幅度提高中文关系抽取生成质量。
文章目录
1 引言
2 相关研究
2.1 基于LLM的关系抽取
2.2 和本研究的关联
3 任务及问题分析
3.1 任务定义
3.2 问题分析
4 方法框架
4.1 面向开放关系抽取的反思学习
4.2 基于自我反思学习的大模型微调方法
4.3 多维度自我反思数据生成算法
5 实验
5.1 实验环境
5.2 数据集
5.3 评估指标
5.4 实验方法
5.5 对比实验
5.6 消融实验
6 小结