我始终相信开源,也热爱分享在工作学习过程中对于Agent所有觉得有价值、有意思的知识点,并定期将其编写成一篇篇博客,进而跟大家讨论学习,共同进步。
也非常欢迎大家能够一起贡献 PR 来不断完善此博客,不断完善,让其成为一个真正的 Agent Handbook。
强烈推荐大家先看吴恩达老师的这篇演讲来入门了解 Agent Workflow:
ORPO 提出了一个非常创新的方法:将 模型对齐阶段 和 SFT阶段 融合到一起,进而提升模型的训练方法。
在 SFT 阶段,就直接将对齐的数据加入到训练当中,进而在SFT 阶段就已经实现了模型对齐的能力。
Self-play with Execution Feedback: Improving Instruction-following Capabilities of Large Language Models
解决的问题
:此论文旨在提升提供一个创建高质量指令跟随数据集的方法,进而提高在不同方法中指令学习的能力。
此论文中是通过生成一个函数函数来检测 Response 内容是否正确,进而提升数据质量。
此论文的方法不算是很创新,可是从一定程度上告诉我们:数据质量的重要性。
- Follow us on X
- Hit us up on discord
- Get my latest blogs on 知识星球