AI在线 AI在线

LLM

让AI说"人话":TypeChat.NET如何用强类型驯服大语言模型的"野性"

引言:当AI开始"听懂人话"时发生了什么? 想象一下这样的场景:你走进咖啡厅,对着智能点餐系统说:"来杯大杯拿铁,少糖,加燕麦奶,要热的。 "系统不仅准确理解了你的需求,还把订单转换成了结构化数据——饮品类型、尺寸、温度、配料,一个都没落下。
10/14/2025 12:25:00 AM
许泽宇

告别「解码器饥饿」!中国科学院NeurIPS推SpaceServe,高并发克星

核心突破:首次将LLM推理中的P/D分离思想扩展至多模态场景,提出EPD(Encoder-Prefill-Decode)三阶段解耦,并通过「空分复用」彻底解决编码器引发的行头阻塞问题。 随着多模态大语言模型(MLLM)广泛应用于高分辨率图像理解、长视频分析等场景,其推理流程中的多模态编码(Encoding)阶段正成为性能瓶颈。 当前主流系统(如vLLM)在服务MLLM时,仍沿用「时间复用」(time-multiplexing)策略:GPU先执行视觉/音频编码器,完成后才切换上下文运行文本解码器。
10/13/2025 9:10:00 AM

破解MoE模型“规模越大,效率越低”困境!中科院自动化所提出新框架

大模型参数量飙升至千亿、万亿级,却陷入“规模越大,效率越低” 困境? 中科院自动化所新研究给出破局方案——首次让MoE专家告别“静态孤立”,开启动态“组队学习”。 具体而言,MoE本是大语言模型(LLM)实现参数量扩张且计算成本仅呈线性增长的核心路径,却长期受困于负载失衡、参数冗余、通信开销的“三难困境”,成为大模型落地部署的主要瓶颈。
10/11/2025 9:20:13 AM
量子位

听说,大家都在梭后训练?最佳指南来了

LLM 后训练最佳入门介绍。 在大模型时代,Scaling Law 一度是 AI 领域公认的准则:只要堆更多数据、参数、算力,模型能力就会持续增长。 GPT-3、PaLM 等的成功,几乎都是这种策略的胜利。
10/9/2025 10:56:00 AM
机器之心

强化学习之父Richard Sutton最新采访:LLM是“死路一条”

强化学习之父Richard Sutton老爷子加入了Yann LeCun行列,认为当前的LLM路线行不通,不可能通向AGI。 图灵奖获得者Richard Sutton,强化学习之父最新采访,认为当前热门的大语言模型是一条死胡同。 他的核心观点是,LLMs 的架构从根本上缺乏从实际互动(on-the-job)中持续学习的能力。
9/28/2025 8:58:55 AM

如何在 LLM 推理中战胜不确定性

最近thinkingmachines的一篇博文在内外网引起了无数的关注和转载,这篇文章的核心内容先是解释了一下为什么LLM推理会有不确定性,随后文章还给出了具体的解决方案。 在详细介绍文章的内容之前,我们先来说一下thinkingmachines这家公司。 它是由前OpenAI首席技术官Mira Murati与多位前OpenAI高管联合创立。
9/28/2025 1:25:00 AM
技不辱你

ReSum:让AI智能体学会“记笔记”,突破长程推理瓶颈

大家好,我是肆〇柒。 本文分享的这篇工作来自通义实验室(Tongyi Lab, Alibaba Group)的最新研究成果——ReSum。 他们提出了一种全新的推理范式,让大模型智能体在面对复杂问题时,能够像人类一样“停下来复盘、做笔记”,从而突破传统上下文长度限制,实现真正意义上的长程探索。
9/24/2025 9:10:24 AM
肆零柒

比思维链准43%!逻辑脑+大模型直觉,推理可靠性大幅提升

大语言模型(LLMs)已在文本生成、代码编写乃至多模态任务中展现出惊人的能力,但在涉及严谨逻辑与物理的空间推理任务上,它们仍显得力不从心。 比如,当模型需要理解多个物体之间的相对位置关系,并在复杂语境下进行多步骤推理时,往往容易出现「逻辑断裂」:可能在中间步骤中虚构错误事实,或偏离目标,最终导致答案不可靠。 这一问题在空间推理任务中尤为突出。
9/23/2025 9:06:00 AM

Notion3.0AI 代理爆出严重漏洞,恶意 PDF 可诱导其泄露敏感数据

随着 Notion3.0的发布,其全新的自主 AI 代理功能备受关注,该功能旨在帮助用户自动完成起草文档、更新数据库和管理工作流程等任务。 然而,网络安全公司 CodeIntegrity 最新的一份报告揭示了这些 AI 代理存在一个严重的安全漏洞,即恶意文件(如 PDF)可被利用,诱导代理绕过安全防护并窃取敏感数据。 CodeIntegrity 将这一漏洞归因于 AI 代理的“致命三重奏”:大型语言模型(LLM)、工具访问权限和长期记忆的结合。
9/22/2025 10:36:27 AM
AI在线

醒醒,LLM根本没有性格!加州理工华人揭开AI人格幻觉真相

AI真的有「性格」吗? 有人拿它做过大五人格测试,发现它回答得既友善,又不焦虑,甚至比人类更稳定。 于是有了各种趣味解读:有的模型像外向的ENFP,有的则更像严谨的ISTJ,好像AI也能被贴上MBTI标签。
9/22/2025 9:13:00 AM

对AI输出结果无休止的调整可能削弱IT成效

许多AI用户已对生成结果保持适度的怀疑,但一些专家指出,过度的怀疑正演变成一种趋势:用户不断反复调整输出,几乎陷入无休止的“打磨”中。 这种新出现的现象被称为“doomscrolling(过度提示)”,与“doomscrolling(指盲目滚动智能手机或电脑屏幕浏览大量负面的新闻报道、社交媒体帖子或其他网络分享内容)”类似——后者指人们在社交媒体或负面新闻上无法停下刷屏。 但两者影响不同:doomscrolling或许只是浪费晚餐到睡前的几个小时,让人更悲观,而doomprompting则可能让企业付出高昂代价,员工耗费大量时间与资源,只为“打磨”AI的输出。
9/18/2025 11:45:56 AM
Grant

突破单链思考上限,清华团队提出原生「并行思考」scale范式

近年来,大语言模型(LLMs)在复杂推理任务上的能力突飞猛进,这在很大程度上得益于深度思考的策略,即通过增加测试时(test-time)的计算量,让模型生成更长的思维链(Chain-of-Thought)。 然而,这条路径正面临着一个明显的瓶颈:随着计算资源的持续投入,性能提升变得微乎其微,甚至陷入停滞。 来自清华大学 AIR 的一篇最新研究论文《ParaThinker: Native Parallel Thinking as a New Paradigm to Scale LLM Test-time Compute》对这一瓶颈发起了挑战 。
9/17/2025 9:27:37 AM

LLM会梦到AI智能体吗?不,是睡着了也要加班

几十年前,菲利普·迪克提出了一个看似荒诞,却直击人心的问题:「仿生人会梦见电子羊吗? 」如果机器也能做梦,它们梦见的,会不会是人类记忆的残影? 半个世纪后,这个问题正在以另一种方式被回应。
9/17/2025 9:06:00 AM

统一视角下的HPT:动态融合SFT与RL,释放LLM后训练新潜能

大家好,我是肆〇柒。 今天探索一篇来自清华大学、上海AI实验室与微信AI团队的前沿研究。 这篇论文提出了一种名为HPT的创新算法,它像一位“智能教练”,能根据模型的实时表现,动态决定是该用监督学习“补基础”,还是用强化学习“练推理”,从而解决后训练中SFT与RL难以调和的矛盾,让模型性能实现质的飞跃。
9/16/2025 10:09:00 AM
肆零柒

试试这个AI邪修方法,让你刷推特时间节省80%

前言不知道你有没有这样的痛点,每次刷推特总是浪费很多时间在上面,但是如果不刷呢又感觉错过了很多重要的信息。 以前欧阳坐班的时候是利用通勤路上刷推特,现在远程办公了,每次打开推特经常1-2个小时就过去了,效率很低。 我的痛点每次刷推特总是浪费很多时间:经常从一个帖子跳到另外一个帖子,然后再跳到其他帖子作者主页,接着看他的更多的帖子。
9/16/2025 8:45:04 AM
前端欧阳

推理的深度边界:神经网络如何在有限参数下实现多步推理?

大家好,我是肆〇柒。 今天要和大家分享的这项突破性研究来自MBZUAI(穆罕默德·本·扎耶德人工智能大学)、莫斯科物理技术学院神经网络与深度学习实验室、莫斯科人工智能研究院以及伦敦数学科学研究所的联合团队。 这项研究通过精心设计的1dCA基准,首次清晰地区分了模型的规则抽象能力和多步状态传播能力,为我们理解神经网络的"思考"机制提供了新视角。
9/15/2025 4:00:00 AM
肆零柒

从单体到LLM:拆解DevOps进化的三大范式

科技史一再证明,我们常低估未来的发展速度。 正如第一台重达30吨的计算机ENIAC,或“640K内存足够”的论断,都无法预见如今远超其亿万倍算力的设备已普及到个人。 今天,我们可能正处在新的“ENIAC时刻”。
9/12/2025 4:13:12 PM
韩荣

牛津&SH AI lab万字综述:Agentic RL——下一代企业级AI智能体的终极路线图

大家好,我是肆〇柒。 今天我们一起看一篇综述,这是来自牛津大学、上海人工智能实验室、新加坡国立大学等全球顶尖机构联合发布的前沿综述——《The Landscape of Agentic Reinforcement Learning for LLMs: A Survey》。 这篇论文系统性地梳理了如何通过强化学习,将大语言模型从被动的文本生成器,重塑为主动的、能解决复杂现实问题的决策智能体。
9/12/2025 3:47:50 PM
肆零柒