AI在线 AI在线

LLM

MCP 很好,但它不是万灵药!真正的技术进步,往往始于祛魅之后的清醒认知

当下AI领域最炙手可热的概念,莫过于MCP。 MCP 指的是Model Context Protocol(模型上下文协议)。 令人意外的是,一个协议系统的热度,甚至盖过了OpenAI发布的最新模型,成为行业讨论的焦点。
6/11/2025 9:00:00 AM
腾讯技术工程

LLM 推理引擎综述:优化与效率的多维探索

大家好,我是肆〇柒,玩开源模型蛮久了,做开源模型项目的各位,应该都了解推理引擎在工程落地上的重要性。 一个好的推理引擎,不仅要具备算力的精准调度能力,还需要符合工程基线的稳定性指标,更重要的,还要保障模型的推理精度符合业务标准。 然而,随着模型规模的指数级膨胀,如何高效地部署和运行这些模型,成为了技术发展道路上的关键挑战。
6/11/2025 2:30:00 AM
肆零柒

Qwen:PARSCALE 让语言模型在并行中飞跃

大家好,我是肆〇柒。 今天,我们来聊聊大型语言模型(LLM)领域的一项研究——PARSCALE。 在人工智能快速发展的当下,大型语言模型应用前景无比广阔,然而,随着模型规模的不断膨胀,我们正面临着前所未有的挑战。
6/11/2025 2:00:00 AM
肆零柒

苹果再轰AI推理能力,GitHub大佬怒怼:这不是推理能力的真实面貌!

最近,苹果公司发布了一篇引发热议的论文,指出当前的大语言模型(LLM)在推理方面存在重大缺陷。 这一观点迅速在社交媒体上引起热议,尤其是 GitHub 的高级软件工程师 Sean Goedecke 对此提出了强烈反对。 他认为,苹果的结论过于片面,并不能全面反映推理模型的能力。
6/10/2025 5:00:56 PM
AI在线

首创像素空间推理,7B模型领先GPT-4o,让VLM能像人类一样「眼脑并用」

视觉语言模型(VLM)正经历从「感知」到「认知」的关键跃迁。 当OpenAI的o3系列通过「图像思维」(Thinking with Images)让模型学会缩放、标记视觉区域时,我们看到了多模态交互的全新可能。 然而,当前主流VLM仍被困在「文本茧房」中——依赖文本token间接翻译视觉信息,在高清图像中的微小物体、视频里的动态细节等场景中,常常因缺乏直接视觉操作能力而「视而不见」。
6/10/2025 9:07:00 AM

大模型能够自发形成“人类思维地图”!Nature子刊重磅研究揭示多模态大模型类脑机制

大模型≠随机鹦鹉! Nature子刊最新研究证明:大模型内部存在着类似人类对现实世界概念的理解。 LLM能理解现实世界和各种抽象概念吗?
6/10/2025 9:04:00 AM

大厂实践: LLM 加速大规模测试迁移

Airbnb最近完成了第一次由 LLM 驱动的大规模代码迁移,将 3500 个测试文件从 Enzyme 更新为 React测试库(RTL,React Testing Library)。 最初我们估计这需要 1 年半的时间来手工完成,但通过使用前沿模型和强大的自动化组合,我们在 6 周内完成了整个迁移。 本文将重点介绍从 Enzyme 迁移到 RTL 所面临的独特挑战,如何通过 LLM 解决这些挑战,以及如何构建迁移工具来执行 LLM 驱动的大规模迁移。
6/10/2025 8:15:00 AM
俞凡 DeepNoMind

如何解决导致GenAI程序沉没的两个问题

在GenAI时代,发展轨迹呈现出典型的“进两步,退一步”模式。 随着公司逐渐掌握GenAI的独特复杂性,初期取得的进展往往伴随着倒退和重复工作,在某些情况下,甚至可能威胁到整个开发进程的停滞。 导致挫败感和延误的原因众多,从人才短缺到持续的数据质量问题不一而足,但根据我们过去两年与超过150家公司合作开展GenAI项目的经验来看,在构建过程中几乎总会遇到两个主要障碍:• 创新失败:流程限制、缺乏专注以及重复性的返工扼杀了创新。
6/10/2025 7:09:00 AM
Curt Jacobsen

RL 驱动 LLM 智能体:ML-Agent 创新自主机器学习工程

大家好,我是肆〇柒。 这两天看到一篇关于自主进化智能体的论文,本篇就让我们一起了解一下这个机器学习工程的的研究 ——ML-Agent。 在当下,机器学习工程已成为科技创新的关键驱动力。
6/10/2025 4:00:00 AM
肆零柒

一文讲清楚大模型中六个关键词及原理:LLM、Transformer、Bert、预训练、微调FineTuning、机器学习

什么是大模型,相信每个人都能说上一个一二三点来。 比如:OpenAI、ChatGPT、DeepSeek、豆包、Manus等。 也知道大模型需要做训练与推理。
6/10/2025 1:00:00 AM
Zack之云原生

文档解析LLM MonkeyOCR震撼登场:3B小模型完胜Gemini

随着大语言模型(LLM)技术的迅猛发展,文档解析领域迎来了一位新星——MonkeyOCR。 这款轻量级文档解析模型以其卓越的性能和高效的处理速度,迅速成为业界关注的焦点。 MonkeyOCR:小模型,大能量MonkeyOCR以仅3B参数的轻量级架构,在英文文档解析任务中展现出惊艳的性能。
6/9/2025 12:00:56 PM
AI在线

多模态LLM+RAG:突破生成瓶颈的下一代AI架构革命​

译者 | 朱先忠审校 | 重楼通过整合文本、图像、音频等数据,多模态大型语言模型(MLLM)开始突破传统RAG的文本局限,赋予AI感知能力。 其核心架构采用CLIP、Whisper等编码器实现跨模态语义统一,通过投影层对齐多模态信息。 不过,多模态大型语言模型的评估需要综合检索质量、生成忠实度及跨模态一致性等一系列指标实现。
6/9/2025 8:42:23 AM
朱先忠

真实联网搜索Agent,7B媲美满血R1,华为盘古DeepDiver给出开域信息获取新解法

大型语言模型 (LLM) 的发展日新月异,但实时「内化」与时俱进的知识仍然是一项挑战。 如何让模型在面对复杂的知识密集型问题时,能够自主决策获取外部知识的策略? 华为诺亚方舟实验室研究团队提出了 Pangu DeepDiver 模型,通过 Search Intensity Scaling 实现了 LLM 搜索引擎自主交互的全新范式,使得 Pangu 7B 模型在开域信息获取能力上可以接近百倍参数的 DeepSeek-R1,并优于 DeepResearcher、R1-Searcher 等业界同期工作!
6/6/2025 9:07:00 AM

LLM 协作革命:Group Think 如何重塑推理边界

大家好,我是肆〇柒。 今天和大家聊聊 Group Think。 顾名思义,它通过让单个 LLM 模拟多个并行推理智能体,并以 token 级别的细粒度协作,提出了推理协作的新范式。
6/6/2025 8:57:42 AM
肆零柒

RAG、向量数据库和LLM搜索:人工智能驱动商业智能的未来

译者 | 李睿审校 | 重楼本文对RAG、向量数据库和LLM搜索如何塑造人工智能驱动的商业智能未来进行探讨。 RAG通过集成知识检索提升LLM性能,解决其无法及时纳入最新或专有信息的问题,尤其在客户服务领域影响显著。 向量数据库则支持快速相似性搜索,理解查询语义。
6/6/2025 8:39:15 AM
李睿

LLM 的 SFT 与 RL:差异几何?

在大型语言模型(LLM)的训练领域,监督微调(SFT)和强化学习(RL)是两种备受瞩目的训练策略。 尽管它们各自有着独特的机制和侧重点,但笔者经过深入研究和实践观察发现,二者之间的差别并非如表面上那般显著,以下是具体的分析与对比。 一、核心原理的相近性SFT 的本质 :SFT 主要是利用标注好的数据集对预训练的 LLM 进行进一步训练,通过最小化模型输出与标注答案之间的差异,来调整模型的参数。
6/6/2025 4:10:00 AM
小智

NVIDIA 新成果:ProRL 拓展 LLM 推理边界

大家好,我是肆〇柒。 本文想和大家分享一篇来自 NVIDIA 研究团队的前沿论文——《ProRL: Prolonged Reinforcement Learning Expands Reasoning Boundaries in Large Language Models》。 这篇论文挑战了强化学习在大型语言模型(LLM)中作用的传统认知,还提出了一种创新的训练方法 ProRL,通过长时间的强化学习训练,显著提升了模型的推理能力。
6/5/2025 11:51:14 AM
肆零柒

构建生产级LLM应用完整指南:从原型到落地的全流程实践

一、LLM应用落地的真实挑战当Jasper AI的写作助手因意外流量在数小时内崩溃时,人们意识到:让LLM应用从实验室走向真实用户,绝非简单的代码迁移。 根据Anthropic 2024年开发者调查,73%的LLM应用在触达用户前折戟沉沙,问题并非出在AI模型本身,而是支撑系统无法应对真实世界的复杂性——用户的不可预测输入、API的偶发故障、成本的突然飙升,这些都是原型阶段未曾遭遇的“暗礁”。 本文将以实战为导向,结合代码示例与架构设计,详解如何将一个基于OpenAI API的简单聊天机器人,升级为具备容错能力、成本可控且可弹性扩展的生产级系统。
6/5/2025 2:45:00 AM
大模型之路