基于大语言模型与多维度自我反思学习的中文开放关系抽取

2025-06-01 60 1.41M 0

  摘要:[目的]大语言生成模型为中文开放关系抽取任务带来了新思路,但如何优化模型生成的关系抽取结果质量成为一个重要问题。[方法]本文提出一种低成本的基于多维度自我反思学习的大模型微调方法(SRLearn方法),自动引导模型进行多维度的自我反思学习,从而优化模型的中文关系抽取生成质量。[结果]相比LoRA+DPO偏好微调方法,SRLearn方法在WikiRE1.0数据集上提高了15个百分点,在DuIE2.0数据集上提高了6.5个百分点,验证了该方法的有效性。[局限]SRLearn方法未来还需要考虑覆盖更多的生成质量问题。[结论]基于多维度自我反思学习增强的大模型微调方法能够大幅度提高中文关系抽取生成质量。

  文章目录

  1 引言

  2 相关研究

  2.1 基于LLM的关系抽取

  2.2 和本研究的关联

  3 任务及问题分析

  3.1 任务定义

  3.2 问题分析

  4 方法框架

  4.1 面向开放关系抽取的反思学习

  4.2 基于自我反思学习的大模型微调方法

  4.3 多维度自我反思数据生成算法

  5 实验

  5.1 实验环境

  5.2 数据集

  5.3 评估指标

  5.4 实验方法

  5.5 对比实验

  5.6 消融实验

  6 小结



您还没有登录,请登录后查看详情



 
举报收藏 0打赏 0评论 0
本类推荐
下载排行
网站首页  |  关于我们  |  联系方式  |  用户协议  |  隐私政策  |  版权声明  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  蜀ICP备2024057410号-1