AI在线 AI在线

系统

形式化证明迈向多模态,MLLM正确率仅4%!港科大等推出全新基准

近年来,自动定理证明(ATP)取得了显著进展,但大部分工作都集中在处理纯文本形式的定理。 然而,在现实世界中,尤其是在几何学领域,许多定理的呈现和理解都离不开图像、图表等视觉元素。 人类数学家善于从这些图表中获取直觉,并将其作为引导严谨证明过程的关键。
6/18/2025 8:49:00 AM

多智能体在「燃烧」Token!Anthropic公开发现的一切

「Anthropic 发布了他们如何使用多个 Claude AI 智能体构建多智能体研究系统的精彩解释。 对于任何构建多智能体系统的人来说,这是一本必读的指南。 」刚刚,X 知名博主 Rohan Paul 强力推荐了 Anthropic 一项新研究。
6/16/2025 8:39:00 AM

上下文窗口错觉:为什么你的 128K token 不起作用

一、当理论容量遭遇现实困境在大语言模型(LLM)的技术竞赛中,上下文窗口长度早已成为各家标榜的核心指标。 从GPT-4o的128K到Gemini 1.5的1M,模型厂商不断突破Token容量的上限,仿佛更长的上下文就意味着更强的信息处理能力。 然而,这场“军备竞赛”背后却隐藏着一个残酷的现实:模型对长上下文的利用率远低于理论预期。
6/11/2025 4:25:00 AM
大模型之路

OCR 识别质量如何影响 RAG 系统的性能?有何解决办法?

检索增强生成(RAG)已成为连接大语言模型与企业数据的标准范式,但该方法存在一个鲜少被讨论的致命缺陷:当前生产环境中的 RAG 系统几乎全部依赖光学字符识别(OCR)技术处理 PDF、扫描件、演示文稿等文档,并默认假设识别结果足以支撑下游 AI 任务。 我们的深度分析表明,这一假设存在根本性缺陷。 OCR 的识别质量形成了一个隐形的天花板,甚至限制了最先进 RAG 系统的性能。
6/11/2025 3:10:00 AM
Baihai IDP

构建生产级LLM应用完整指南:从原型到落地的全流程实践

一、LLM应用落地的真实挑战当Jasper AI的写作助手因意外流量在数小时内崩溃时,人们意识到:让LLM应用从实验室走向真实用户,绝非简单的代码迁移。 根据Anthropic 2024年开发者调查,73%的LLM应用在触达用户前折戟沉沙,问题并非出在AI模型本身,而是支撑系统无法应对真实世界的复杂性——用户的不可预测输入、API的偶发故障、成本的突然飙升,这些都是原型阶段未曾遭遇的“暗礁”。 本文将以实战为导向,结合代码示例与架构设计,详解如何将一个基于OpenAI API的简单聊天机器人,升级为具备容错能力、成本可控且可弹性扩展的生产级系统。
6/5/2025 2:45:00 AM
大模型之路

AI是否知道什么时候该"思考"?Thinkless教会大模型何时该动脑筋

你是否曾经问过简单问题,却得到AI长篇大论的回答? 或者问复杂问题时,AI却草草了事? 今天我要和大家分享一项突破性研究,它让AI学会了"什么时候该思考,什么时候该直接回答"。
5/23/2025 6:47:33 PM
无影寺

Patronus AI 推出 Percival:一分钟诊断百步代理链中的隐藏故障

随着企业越来越多地部署自主运行的 AI 代理系统,对这些复杂系统的监控与调试需求也迅速增长。 总部位于旧金山的 AI 安全公司 Patronus AI 今日发布了其最新产品 Percival,一个能够自动识别 AI 代理系统中故障模式并提出修复建议的监控平台。 “Percival 是业界首个可以自动追踪代理轨迹、识别复杂故障,并系统化输出修复建议的智能代理。
5/15/2025 11:01:55 AM
AI在线

Cursor AI 系统提示词泄露:Vibe 编程的七大提示词技巧

在当前 AI 快速演进的背景下,语言模型展现出的“智能性”愈发惊艳。 即使用户输入的提示词模糊不清,Claude 3.5 或 Cursor 等系统依旧能准确“读懂心思”,给出相对贴切的回应。 这种智能表现,部分原因来自系统提示词(System Prompt)机制的设计。
5/14/2025 8:11:07 AM
前端小智

RASA:LLM系统中实现智能体记忆的认知框架(含代码)

大语言模型(LLMs)和智能体不断进化,已不再局限于简单的响应和输出,而是在推理与行动能力上持续成熟。 随着智能体架构的进步,记忆、回忆和知识应用的方式,在系统设计和可信度方面变得愈发关键且复杂。 RASA(Role-Aligned Software Architecture,角色对齐软件架构)作为一个创新性的认知框架,为构建具备强大记忆能力、能够灵活适应各种场景的智能体提供了全新的思路和方法。
5/12/2025 2:50:00 AM
大模型之路

微软正式开源UFO²,Windows桌面迈入「AgentOS 时代」

本论文第一作者为微软 DKI 团队的 Chaoyun Zhang,其为 Windows 平台首个智能体系统 ——UFO 的核心开发者,该项目已在 GitHub 上开源并获得约 7,000 Stars,在社区中引发广泛关注。 同时,他也是一篇超过 90 页的 GUI Agent 综述文章的主要撰写者,系统梳理了该领域的关键进展与技术框架。 其余项目的主要贡献者亦均来自微软 DKI 团队,具备深厚的研究与工程背景。
5/7/2025 9:16:00 AM

突破瓶颈,嵌入式AI神经持续学习引擎—Replay4NCL

阿联酋大学、纽约大学阿布扎比分校以及巴基斯坦国立科技大学的研究人员,联合推出了一种高效内存重放方法Replay4NCL,以解决嵌入式 AI 系统在动态环境中持续学习的难题。 值得一提的是,该研究成果已经被第62届设计自动化大会(DAC)审核通过,会在2025年6月在旧金山举办的大会上展示。 随着AI技术的快速迭代发展,嵌入式 AI 系统在各种应用场景中扮演着越来越重要的角色,例如,移动机器人、无人驾驶、无人机等。
5/6/2025 10:13:41 AM
AIGC开放社区

深度研究 | Agentic AI系统安全防护实施指南

在人工智能迅猛发展的今天,Agentic AI系统以其前所未有的自主性、适应性和决策能力,正在重塑企业的数字化格局。 这些具备"代理能力"的AI系统能够自主感知环境、制定决策并采取行动,为企业带来效率提升和创新机遇。 然而,随之而来的是全新的安全挑战与风险维度:当AI拥有了更大的自主权,我们如何确保它始终在可控、安全、合规的轨道上运行?
4/30/2025 12:00:00 AM
徐晓丽

首个系统性工具使用奖励范式,ToolRL刷新大模型训练思路

钱成目前是伊利诺伊大学香槟分校 (UIUC) 一年级博士生,导师为季姮教授。 本科就读于清华大学,导师为刘知远教授。 其工作集中在大语言模型工具使用与推理以及人工智能体方向。
4/29/2025 9:12:00 AM
机器之心

AI也要007?Letta、伯克利提出「睡眠时间计算」,推理效率翻倍还不加钱

AI 也要 007 工作制了! 近日,AI 初创公司 Letta 和 UC 伯克利的研究人员提出了一种扩展人工智能能力的新方式 —— 睡眠时间计算(Sleep-time Compute),让模型在空闲时间「思考」,旨在提高大型语言模型(LLM)的推理效率,降低推理成本,同时保持或提升准确性。 睡眠时间计算的核心理念在于:智能体即使在「睡眠」(即用户未提出查询时的闲置状态)时段,也应持续运行,利用这些非交互期重组信息、提前完成推理。
4/23/2025 9:10:00 AM
机器之心

百页专业报告一次直出!Jürgen团队开源框架WriteHERE,重塑AI写作天花板

在 AI 长文写作领域,一项革命性突破正在改写行业规则 —— 由「人工智能之父」Jürgen Schmidhuber 领衔的团队,正式开源其长文写作框架 WriteHERE。 该框架凭借异质递归规划(Heterogeneous Recursive Planning)技术,实现单次生成超 4 万字、100 页专业报告的能力,在小说创作、报告生成场景中全面超越 Perplexity 付费版「深度研究」、DeepMind 的 Agent's Room 及斯坦福 STORM 等顶尖方案。 论文标题:Beyond Outlining: Heterogeneous Recursive Planning for Adaptive Long-form Writing with Language Models论文地址: & 在线 Demo: 仓库:「大纲先行」到「实时编织」现有 AI 长文生成系统(如 Agent's Room、STORM)多将写作简化为「规划 - 填充」的线性流程,而 WriteHERE 首次通过数学形式化揭示:长文写作本质上是检索(Retrieval)、推理(Reasoning)、写作(Composition)三类异构任务的动态编织。
4/22/2025 9:35:00 AM
机器之心

靠C#年入百万:开发DeepSeek爆文生成系统,日更50篇的源码解剖

在内容创作领域,流量就是财富密码。 如何高效产出吸引眼球的爆文,成为众多创作者和内容机构的核心诉求。 借助当下先进的AI技术,结合强大的C#开发能力,一套能够日更50篇爆文的DeepSeek爆文生成系统应运而生,为从业者打开了年入百万的大门。
3/31/2025 12:22:25 AM
conan

一文看懂多模态思维链

多模态思维链(MCoT)系统综述来了! 不仅阐释了与该领域相关的基本概念和定义,还包括详细的分类法、对不同应用中现有方法的分析、对当前挑战的洞察以及促进多模态推理发展的未来研究方向。 图片当下,传统思维链(CoT)已经让AI在文字推理上变得更聪明,比如一步步推导数学题的答案。
3/25/2025 9:06:11 AM
量子位

揭秘老黄演讲中关键技术:PD分离!UCSD华人团队力作,LLM吞吐量跃升4倍

现在,PD分离已经成为兵家必争之地。 前有Mooncake/DeepSeek等公司采用这种技术来优化大模型的推理服务,后有Nvidia/PyTorch基于该技术孵化下一代LLM服务系统。 甚至最近,黄仁勋也在2025 GTC的舞台上提到了PD分离(Prefill-Decode Disaggregation)技术,进一步证明了这一技术获得的广泛关注。
3/20/2025 9:00:00 AM
新智元