系统
形式化证明迈向多模态,MLLM正确率仅4%!港科大等推出全新基准
近年来,自动定理证明(ATP)取得了显著进展,但大部分工作都集中在处理纯文本形式的定理。 然而,在现实世界中,尤其是在几何学领域,许多定理的呈现和理解都离不开图像、图表等视觉元素。 人类数学家善于从这些图表中获取直觉,并将其作为引导严谨证明过程的关键。
6/18/2025 8:49:00 AM
多智能体在「燃烧」Token!Anthropic公开发现的一切
「Anthropic 发布了他们如何使用多个 Claude AI 智能体构建多智能体研究系统的精彩解释。 对于任何构建多智能体系统的人来说,这是一本必读的指南。 」刚刚,X 知名博主 Rohan Paul 强力推荐了 Anthropic 一项新研究。
6/16/2025 8:39:00 AM
上下文窗口错觉:为什么你的 128K token 不起作用
一、当理论容量遭遇现实困境在大语言模型(LLM)的技术竞赛中,上下文窗口长度早已成为各家标榜的核心指标。 从GPT-4o的128K到Gemini 1.5的1M,模型厂商不断突破Token容量的上限,仿佛更长的上下文就意味着更强的信息处理能力。 然而,这场“军备竞赛”背后却隐藏着一个残酷的现实:模型对长上下文的利用率远低于理论预期。
6/11/2025 4:25:00 AM
大模型之路
OCR 识别质量如何影响 RAG 系统的性能?有何解决办法?
检索增强生成(RAG)已成为连接大语言模型与企业数据的标准范式,但该方法存在一个鲜少被讨论的致命缺陷:当前生产环境中的 RAG 系统几乎全部依赖光学字符识别(OCR)技术处理 PDF、扫描件、演示文稿等文档,并默认假设识别结果足以支撑下游 AI 任务。 我们的深度分析表明,这一假设存在根本性缺陷。 OCR 的识别质量形成了一个隐形的天花板,甚至限制了最先进 RAG 系统的性能。
6/11/2025 3:10:00 AM
Baihai IDP
构建生产级LLM应用完整指南:从原型到落地的全流程实践
一、LLM应用落地的真实挑战当Jasper AI的写作助手因意外流量在数小时内崩溃时,人们意识到:让LLM应用从实验室走向真实用户,绝非简单的代码迁移。 根据Anthropic 2024年开发者调查,73%的LLM应用在触达用户前折戟沉沙,问题并非出在AI模型本身,而是支撑系统无法应对真实世界的复杂性——用户的不可预测输入、API的偶发故障、成本的突然飙升,这些都是原型阶段未曾遭遇的“暗礁”。 本文将以实战为导向,结合代码示例与架构设计,详解如何将一个基于OpenAI API的简单聊天机器人,升级为具备容错能力、成本可控且可弹性扩展的生产级系统。
6/5/2025 2:45:00 AM
大模型之路
AI是否知道什么时候该"思考"?Thinkless教会大模型何时该动脑筋
你是否曾经问过简单问题,却得到AI长篇大论的回答? 或者问复杂问题时,AI却草草了事? 今天我要和大家分享一项突破性研究,它让AI学会了"什么时候该思考,什么时候该直接回答"。
5/23/2025 6:47:33 PM
无影寺
Patronus AI 推出 Percival:一分钟诊断百步代理链中的隐藏故障
随着企业越来越多地部署自主运行的 AI 代理系统,对这些复杂系统的监控与调试需求也迅速增长。 总部位于旧金山的 AI 安全公司 Patronus AI 今日发布了其最新产品 Percival,一个能够自动识别 AI 代理系统中故障模式并提出修复建议的监控平台。 “Percival 是业界首个可以自动追踪代理轨迹、识别复杂故障,并系统化输出修复建议的智能代理。
5/15/2025 11:01:55 AM
AI在线
Cursor AI 系统提示词泄露:Vibe 编程的七大提示词技巧
在当前 AI 快速演进的背景下,语言模型展现出的“智能性”愈发惊艳。 即使用户输入的提示词模糊不清,Claude 3.5 或 Cursor 等系统依旧能准确“读懂心思”,给出相对贴切的回应。 这种智能表现,部分原因来自系统提示词(System Prompt)机制的设计。
5/14/2025 8:11:07 AM
前端小智
RASA:LLM系统中实现智能体记忆的认知框架(含代码)
大语言模型(LLMs)和智能体不断进化,已不再局限于简单的响应和输出,而是在推理与行动能力上持续成熟。 随着智能体架构的进步,记忆、回忆和知识应用的方式,在系统设计和可信度方面变得愈发关键且复杂。 RASA(Role-Aligned Software Architecture,角色对齐软件架构)作为一个创新性的认知框架,为构建具备强大记忆能力、能够灵活适应各种场景的智能体提供了全新的思路和方法。
5/12/2025 2:50:00 AM
大模型之路
微软正式开源UFO²,Windows桌面迈入「AgentOS 时代」
本论文第一作者为微软 DKI 团队的 Chaoyun Zhang,其为 Windows 平台首个智能体系统 ——UFO 的核心开发者,该项目已在 GitHub 上开源并获得约 7,000 Stars,在社区中引发广泛关注。 同时,他也是一篇超过 90 页的 GUI Agent 综述文章的主要撰写者,系统梳理了该领域的关键进展与技术框架。 其余项目的主要贡献者亦均来自微软 DKI 团队,具备深厚的研究与工程背景。
5/7/2025 9:16:00 AM
突破瓶颈,嵌入式AI神经持续学习引擎—Replay4NCL
阿联酋大学、纽约大学阿布扎比分校以及巴基斯坦国立科技大学的研究人员,联合推出了一种高效内存重放方法Replay4NCL,以解决嵌入式 AI 系统在动态环境中持续学习的难题。 值得一提的是,该研究成果已经被第62届设计自动化大会(DAC)审核通过,会在2025年6月在旧金山举办的大会上展示。 随着AI技术的快速迭代发展,嵌入式 AI 系统在各种应用场景中扮演着越来越重要的角色,例如,移动机器人、无人驾驶、无人机等。
5/6/2025 10:13:41 AM
AIGC开放社区
深度研究 | Agentic AI系统安全防护实施指南
在人工智能迅猛发展的今天,Agentic AI系统以其前所未有的自主性、适应性和决策能力,正在重塑企业的数字化格局。 这些具备"代理能力"的AI系统能够自主感知环境、制定决策并采取行动,为企业带来效率提升和创新机遇。 然而,随之而来的是全新的安全挑战与风险维度:当AI拥有了更大的自主权,我们如何确保它始终在可控、安全、合规的轨道上运行?
4/30/2025 12:00:00 AM
徐晓丽
首个系统性工具使用奖励范式,ToolRL刷新大模型训练思路
钱成目前是伊利诺伊大学香槟分校 (UIUC) 一年级博士生,导师为季姮教授。 本科就读于清华大学,导师为刘知远教授。 其工作集中在大语言模型工具使用与推理以及人工智能体方向。
4/29/2025 9:12:00 AM
机器之心
AI也要007?Letta、伯克利提出「睡眠时间计算」,推理效率翻倍还不加钱
AI 也要 007 工作制了! 近日,AI 初创公司 Letta 和 UC 伯克利的研究人员提出了一种扩展人工智能能力的新方式 —— 睡眠时间计算(Sleep-time Compute),让模型在空闲时间「思考」,旨在提高大型语言模型(LLM)的推理效率,降低推理成本,同时保持或提升准确性。 睡眠时间计算的核心理念在于:智能体即使在「睡眠」(即用户未提出查询时的闲置状态)时段,也应持续运行,利用这些非交互期重组信息、提前完成推理。
4/23/2025 9:10:00 AM
机器之心
百页专业报告一次直出!Jürgen团队开源框架WriteHERE,重塑AI写作天花板
在 AI 长文写作领域,一项革命性突破正在改写行业规则 —— 由「人工智能之父」Jürgen Schmidhuber 领衔的团队,正式开源其长文写作框架 WriteHERE。 该框架凭借异质递归规划(Heterogeneous Recursive Planning)技术,实现单次生成超 4 万字、100 页专业报告的能力,在小说创作、报告生成场景中全面超越 Perplexity 付费版「深度研究」、DeepMind 的 Agent's Room 及斯坦福 STORM 等顶尖方案。 论文标题:Beyond Outlining: Heterogeneous Recursive Planning for Adaptive Long-form Writing with Language Models论文地址: & 在线 Demo: 仓库:「大纲先行」到「实时编织」现有 AI 长文生成系统(如 Agent's Room、STORM)多将写作简化为「规划 - 填充」的线性流程,而 WriteHERE 首次通过数学形式化揭示:长文写作本质上是检索(Retrieval)、推理(Reasoning)、写作(Composition)三类异构任务的动态编织。
4/22/2025 9:35:00 AM
机器之心
靠C#年入百万:开发DeepSeek爆文生成系统,日更50篇的源码解剖
在内容创作领域,流量就是财富密码。 如何高效产出吸引眼球的爆文,成为众多创作者和内容机构的核心诉求。 借助当下先进的AI技术,结合强大的C#开发能力,一套能够日更50篇爆文的DeepSeek爆文生成系统应运而生,为从业者打开了年入百万的大门。
3/31/2025 12:22:25 AM
conan
一文看懂多模态思维链
多模态思维链(MCoT)系统综述来了! 不仅阐释了与该领域相关的基本概念和定义,还包括详细的分类法、对不同应用中现有方法的分析、对当前挑战的洞察以及促进多模态推理发展的未来研究方向。 图片当下,传统思维链(CoT)已经让AI在文字推理上变得更聪明,比如一步步推导数学题的答案。
3/25/2025 9:06:11 AM
量子位
揭秘老黄演讲中关键技术:PD分离!UCSD华人团队力作,LLM吞吐量跃升4倍
现在,PD分离已经成为兵家必争之地。 前有Mooncake/DeepSeek等公司采用这种技术来优化大模型的推理服务,后有Nvidia/PyTorch基于该技术孵化下一代LLM服务系统。 甚至最近,黄仁勋也在2025 GTC的舞台上提到了PD分离(Prefill-Decode Disaggregation)技术,进一步证明了这一技术获得的广泛关注。
3/20/2025 9:00:00 AM
新智元
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
机器人
数据
AI新词
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
马斯克
英伟达
Anthropic
图像
AI创作
训练
LLM
论文
代码
算法
苹果
AI for Science
Agent
Claude
腾讯
芯片
Stable Diffusion
蛋白质
具身智能
开发者
xAI
生成式
神经网络
机器学习
人形机器人
3D
AI视频
RAG
大语言模型
Sora
研究
百度
生成
GPU
工具
华为
字节跳动
计算
AGI
大型语言模型
AI设计
搜索
生成式AI
视频生成
DeepMind
特斯拉
场景
AI模型
深度学习
亚马逊
架构
Transformer
MCP
编程
Copilot
视觉