AI在线 AI在线

理论

阿里开源长文本深度思考模型!渐进式强化学习破解长文本训练难题,登HuggingFace热榜

推理大模型开卷新方向,阿里开源长文本深度思考模型QwenLong-L1,登上HuggingFace今日热门论文第二。 其32B参数版本超过OpenAI-o3-mini、Qwen3-235B-A22B等,取得与Claude-3.7-Sonnet-Thingking相当的性能。 除测评分数外,论文中还详细展示了一个金融文档推理的案例。
5/28/2025 9:09:00 AM

谷歌·搜索:献给AI的第一个「祭品」?

谷歌打算用AI先革了自己的命,从搜索引擎开始。 在搜索的主页上,谷歌已经将AI Overviews和AI Mode排在了最前面。 谷歌搜索长期免费,主要依靠在搜索结果中投放广告来创收。
5/28/2025 9:04:00 AM

一文读懂 RAG Fixed-Size Chunking 策略解析与优秀实践

Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建高效、灵活的计算架构的 RAG 架构的切块策略—Fixed-Size Chunking(固定切块)。 众所周知,在构建 RAG(Retrieval-Augmented Generation,检索增强生成)系统的过程中,文档切块策略往往决定了模型检索质量的上限。 切得好,信息命中更精准,生成回答更有上下文逻辑;切得差,模型则容易“答非所问”。
5/28/2025 9:00:00 AM
Luga Lee

告别卡脖子,华为黑科技破局!昇腾推理加速1.6倍打破LLM降智魔咒

LLM发展到今天,下一步该往哪个方向探索? 显然,如今最明显的一个问题就是,大模型的参数规模还是太大了——DeepSeek-V3的参数为671B,Llama 3.1系列最大为405B,GPT-4o为200B,Claude 3.5 Sonnet为175B。 参数规模在不断增长,高昂的计算成本和推理延迟,该怎么破?
5/28/2025 8:51:00 AM

测试技术弹性并制定90天行动计划的五个问题

重大事件要求公司迅速作出反应,这意味着你的技术架构需要具备足够的敏捷性,以应对前所未有的环境变化。 技术演进的前所未有的速度、持续的地缘政治不稳定以及不断变化的贸易协定格局,只是许多公司近期不得不适应的几个动态因素。 最成功的企业是那些能够有效应对宏观事件的企业,无论是监管变化、技术发展、供应链调整还是市场准入重新调整。
5/28/2025 7:00:00 AM
Koenraad

性能优化!七个策略,让Spring Boot 处理每秒百万请求

环境:SpringBoot3.4.21. 简介在实施任何优化前,我首先明确了性能基准。 这一步至关重要——若不清楚起点,便无法衡量进展,也无法定位最关键的改进方向。
5/28/2025 5:10:00 AM
Springboot实战案例锦集

我的RAG开源项目300+star了,十分适合新手入门(日志级详细拆解)

三个月前,我在 Github 上开源的一个 RAG 练手项目,目前已经有了 327 个 star,总共解决了 22 个 issues。 结合过去几个月的项目实践,我重新对项目做了轻量化重构,降低资源消耗与部署门槛。 项目地址:,五脏俱全。
5/28/2025 5:00:00 AM
韦东东

谷歌最新 AI 编码助手,简直令人难以置信

哇,这也太厉害了。 谷歌在开发工具上变得异常认真。 他们的新 AI 编码助手真是惊艳至极。
5/28/2025 4:00:00 AM
前端小智

AI重塑数据治理的底层逻辑

上个月,一位老友约我喝茶。 他是某知名互联网公司的数据总监,聊天时满脸愁容。  "润总,我们公司数据治理团队有50多人,每天忙得团团转,可数据质量还是一团糟。
5/28/2025 4:00:00 AM
有趣有用有姿态的

MMaDA:多模态大型扩散语言模型的创新突破

大家好,我是肆〇柒。 今天,我们来聊聊一篇来自普林斯顿大学、北京大学、清华大学和字节跳动的研究团队的最新成果——MMaDA(Multimodal Large Diffusion Language Models)。 这项研究在多模态人工智能领域带来了新的突破,其创新的统一扩散架构和先进的后训练策略,为多模态任务的处理提供了全新的思路和解决方案。
5/28/2025 3:30:00 AM
肆零柒

AI问答系统的挑战之语义鸿沟与知识盲点,让大模型理解行业黑话

许多企业在引入通用型AI问答系统后,普遍面临两大核心技术挑战:语义理解的精准度不足和领域知识的深度缺失。 这直接导致系统在处理行业特定术语(黑话)时表现不佳,进而影响问答的准确性和用户体验。 行业黑话识别难题的技术根源通用AI模型主要依赖大规模、多领域的公开语料进行预训练。
5/28/2025 3:00:00 AM
贝塔街的万事屋

Dify、n8n、扣子、Fastgpt、Ragflow到底该怎么选?超详细指南来了

一直以来,我分享了不少关于工作流平台、LLM应用平台的不少干货文章。 主要包含:Dify、Coze、n8n、Fastgpt、Ragflow但是几乎每一篇文章的评论区都有小伙伴问,xxx平台和xxx平台比怎么样,该怎么选? 确实,面对日新月异的AI技术,还有飞速发展的各种LLM平台,我们很容易患上选择困难症但我想说的是,每个平台各有优势,需要根据自身需求,选择合适的即可。
5/28/2025 2:45:00 AM
袋鼠帝

AdaptThink:推理模型的自适应思考范式

大家好,我是肆〇柒。 我前几天就看到这么一篇论文关于 AdaptThink。 它主要讲的是如何通过强化学习,来实现Reason Model(推理模型如o1,R1)根据问题难度自适应选择思考模式(思考或不思考),以优化推理质量和效率的平衡。
5/28/2025 2:40:00 AM
肆零柒

「DeepSeek 技术解析」:LLM 训练中的强化学习算法

我们将深入探讨 DeepSeek 模型训练策略中的关键创新之一[1, 2]:群组相对策略优化(Grouped Relative Policy Optimization,GRPO)[3]。 为确保本文自成体系并阐明 GRPO 的理论基础,我们将首先介绍强化学习的基础概念,重点解析强化学习(RL)及基于人类反馈的强化学习(RLHF)在 LLM 训练中的核心作用。 接着我们将探讨不同的强化学习范式,包括基于价值的强化学习、基于策略的强化学习和 Actor-Critic 强化学习,回顾经典算法如置信域策略优化(TRPO)和近端策略优化(PPO),最后解析 GRPO 带来的优化创新。
5/28/2025 2:25:00 AM
Baihai IDP

什么是 AI 智能体?一个例子说清楚

很多人知道,AI 可以用来聊天,帮你生成文本,比如写总结、改文案、润邮件。 但你有没有想过:这些事情,其实都可以交给一个AI 智能体自动完成? 比如这件事:你输入一些工作数据,让 AI 帮你写一篇工作总结,再稍作修改发给主管。
5/28/2025 2:00:00 AM
大征哥

知识图谱、大模型与幻觉:自然语言处理的视角

摘要大型语言模型(LLMs)已经彻底改变了基于自然语言处理(NLP)的应用,包括自动化文本生成、问答系统、聊天机器人等。 然而,它们面临一个重大挑战:产生幻觉,即模型生成听起来合理但实际上错误的内容。 这削弱了信任,并限制了LLMs在不同领域的适用性。
5/28/2025 1:50:00 AM
KGGPT

RAG(检索增强生成):提升大语言模型性能的终极指南

一、大语言模型的困境:从“鹦鹉学舌”到“知识饥渴”在人工智能领域,大语言模型(LLMs)的出现曾让我们惊叹于其语言能力——它们能流畅对话、撰写文章,甚至模仿人类的逻辑推理。 然而,随着应用场景的深入,这些“超级智能鹦鹉”的局限性逐渐暴露:时效性缺失模型训练数据往往截止到某个固定时间点,无法回答“昨晚比赛结果”“最新政策变化”等实时问题。 知识边界模糊面对企业内部文档、专业领域知识等私有数据时,传统LLMs因缺乏访问权限而无法准确响应。
5/28/2025 1:25:00 AM
大模型之路

DeepSeek-V3:硬件与模型的完美统协,奏响 AI 高效新乐章

大家好,我是肆〇柒。 DeepSeek-V3 曾经一度备受全球瞩目,从 V3 发布至今,这一开源模型已经在众多企业场景中成功落地。 然而,在落地过程中,由于其复杂的工程细节,相信许多团队也遇到了不少挑战。
5/28/2025 1:20:00 AM
肆零柒