AI在线 AI在线

模型微调

为什么说做好RAG就够了?深度拆解RAG系统的现状、优化与未来

在如今的AI技术讨论中,“模型微调”曾一度被视为提升任务效果的“终极方案”。 但在2025年10月硅谷那场AI Agent内部研讨会上,多位行业专家却抛出了一个颠覆性观点:多数场景下,模型微调根本用不上,把检索增强生成(RAG)做透,就足够解决问题。 这个观点背后,是RAG技术在成本、效率与知识时效性上的天然优势,也是行业对“AI落地实用性”的重新审视。
10/30/2025 6:00:00 AM
Goldma

突破单token预测局限!南洋理工首次将多token预测引入微调

告别Next-token,现在模型微调阶段就能直接多token预测! 从GPT到Claude,当前主流LLM都依赖next-token prediction(下一token预测)进行训练,但它却让AI很难真正理解跨越多token的完整概念。 于是南洋理工大学最近提出了一项新技术——概念感知微调(CAFT),首次实现将multi-token prediction(多token预测)引入微调阶段,让模型能够像人类一样理解和学习完整概念。
7/24/2025 6:34:27 PM
鹭羽