【Self-rewarding-reasoning-LLM:训练能自我奖励推理的

爱生活爱珂珂 2025-02-28 14:24:38

【Self-rewarding-reasoning-LLM:训练能自我奖励推理的大型语言模型,让模型在推理过程中自主评估输出正确性,无需外部反馈。亮点:1. 通过自我奖励机制,模型推理能力提升显著,最终准确率提升最高达14.2%;2. 自我修正能力强大,能自动检测错误并优化输出;3. 结合强化学习,性能超越依赖外部奖励模型的系统】

'Self-rewarding Correction for Mathematical Reasoning'

GitHub: github.com/RLHFlow/Self-rewarding-reasoning-LLM

0 阅读:0
爱生活爱珂珂

爱生活爱珂珂

感谢大家的关注