AI在线 AI在线

理论

Cursor“自研”模型套壳国产开源?网友:毕竟好用又便宜

美国顶流AI产品“套壳”中国开源大模型,这事儿上“热搜”了(doge)。 𝕏网友都在感叹:大家都认为中国大模型正在迎头赶上。 不,它们已经赶上了。
11/3/2025 8:52:00 AM

向黄仁勋汇报的英伟达36人

市值第一巨头英伟达里,都有谁可以直接向CEO黄仁勋汇报? 36人。 这是最新被曝光的数字。
11/3/2025 8:51:00 AM

警惕!供应商的AI即是你的风险:这四项条款能救你于隐性责任之外

麦肯锡的一份报告显示,78%的企业表示至少在一个业务职能中使用了AI,这意味着你所在企业对AI的使用已不再是唯一的担忧。 如今,风险暴露的边界已延伸至合作伙伴和供应商对AI的使用。 主要问题在于:他们是否在你未察觉的情况下,将AI嵌入到运营中,直到出现问题你才有所发现?供应商的聊天机器人处理敏感数据不当、算法输出结果存在偏见,或是合作伙伴用你的信息训练其模型,这些情况都可能引发监管处罚和声誉受损。
11/3/2025 7:00:00 AM
Arti

最火VLA,看这一篇综述就够了

ICLR 2026爆火领域VLA(Vision-Language-Action,视觉-语言-动作)全面综述来了! 如果你还不了解VLA是什么,以及这个让机器人学者集体兴奋的领域进展如何,看这一篇就够了。 文章作者Moritz Reuss是2025年Apple AI/ML学者奖得主,曾在RSS、ICLR、NeurIPS等顶级会议多次发表研究成果。
11/3/2025 4:00:00 AM

前OpenAI灵魂人物Jason Wei最新演讲!三大思路揭示2025年AI终极走向

用三句话总结下2025年AI的发展,你会想到什么? 所有能被验证的任务,最终都会被AI解决智能最后会变成商品,知识价格归零AI不会瞬间超过人类最近,前OpenAI核心研究员、CoT(思维链)作者Jason Wei在斯坦福大学AI Club做了一场精彩的演讲。 图片这是他跳槽到Meta后少有的公开分享。
11/3/2025 2:00:00 AM
新智元

MemMamba:用"做笔记"机制突破长序列建模的记忆瓶颈

大家好,我是肆〇柒。 今天要和大家分享的是由中国人民大学统计学院、上海人工智能实验室和上海财经大学联合研究团队在ICLR 2026会议投稿的突破性工作——MemMamba。 这项研究首次系统揭示了Mamba模型的记忆衰减机制,通过受人类"做笔记"行为启发的创新设计,成功解决了长序列建模中的关键记忆瓶颈问题,在400k tokens的极端长序列任务中仍能保持90%的准确率,为高效且强大的序列建模开辟了全新道路。
11/3/2025 1:00:00 AM
肆零柒

别急着写代码了,先好好写文档吧!Gemini CLI产品负责人预言:未来的开发者可能根本不需要看代码,只需要写下意图

编辑 | 听雨出品 | 51CTO技术栈(微信号:blog51cto)别急着写代码,先教AI怎么干活。 这是 Google Cloud Platform 开发者体验部门副总裁Keith Ballinger 最近在《The New Stack Agents》节目上说的一句话,也是一针见血地指出了当下AI开发的最大误区。 Ballinger 是少数依然亲自写代码的高管之一,同时深度参与了最新的 “智能体化” 编程工具的研发与使用。
11/2/2025 1:32:29 PM
听雨

斯坦福最新研究:AI 的上下文比参数重要,无需重训、不再微调

大数据文摘出品近日,斯坦福大学与 SambaNova Systems 合作发表了论文《Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models》。 该论文提出了一个名为ACE(Agentic Context Engineering)的框架,可以让AI在不重新训练权重的前提下,实现自我改进。 图片论文链接:,大模型的能力,并非仅由参数决定,更取决于“上下文的质量”。
10/31/2025 4:06:19 PM

DeepMind一篇论文终结十年之争!GPT-5推理靠世界模型

GPT-5上线后,最让人震惊的不是它能写诗画画,而是它展现出的推理能力。 网友惊呼:「感觉像是在和博士讨论问题」,媒体更是直言它的逻辑水平已经「堪比专家」。 为什么会出现这种「突然开窍」的效果?
10/31/2025 4:04:17 PM
新智元

Sora天才辍学生归来!OpenAI组建三人神秘小队,豪赌超级人工智能

Sora背后的核心贡献者之一,这位00后的天才辍学生Will Depue,准备再次搞个大事情。 刚刚,他宣布下一个目标是,超级人工智能ASI! 在结束一段长期休息后,Will Depue宣布他再次回到OpenAI。
10/31/2025 3:55:12 PM

颤抖吧,Bug!OpenAI放出GPT-5「夜行神兽」,命中92%漏洞

刚刚,OpenAI推出了使用GPT-5寻找和修复安全漏洞的智能体Aardvark。 目前,Aardvark还处于beta测试阶段。 OpenAI称,Aardvark开创了「防御者优先」的新范式:作为自主安全研究智能体,随代码不断演化,为团队提供持续保护(continuous protection)。
10/31/2025 3:53:06 PM

我们往Claude脑子里塞了一个词,然后它开始「自圆其说」了!Anthropic最新研究:AI拥有内省能力!

编辑 | 听雨出品 | 51CTO技术栈(微信号:blog51cto)Anthropic刚刚公布了一项最新研究:AI开始拥有内省能力。 这个问题,其实在AI领域大神、OpenAI元老 Andrej Karpathy 最近的演讲中也有所提及:他认为,AI 的下一个阶段不是更大的模型,而是能反思自己的模型。 它们需要像人一样,能在输出后回顾过程、总结偏差、甚至从错误中自我修正。
10/31/2025 3:19:03 PM
听雨

OpenAI、Claude、通义、智谱、月暗,甚至谷歌,为什么全选择Pytorch?早期论文成员爆料:LLM太笨重了,需要微型化

编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)Pytorch 赢了。 大家可能没注意到,现在每一款与你互动的Chatbot,背后运行的都是 PyTorch。 可以说,它已经成为了主流LLM研发链路中事实上的标准。
10/31/2025 12:44:10 PM
云昭

RAS 革命:从 RAG 到结构化知识增强,破解 LLM 短板的新范式

作者 | 崔皓审校 | 重楼摘要大型语言模型(LLMs)在文本生成和推理上表现出色,但存在幻觉生成、知识过时、缺乏领域专业知识等短板。 检索增强生成(RAG)虽能通过外部文档检索增强 LLMs 以减少幻觉、获取最新信息,却面临掺杂误导信息、缺少逻辑连接的问题。 为此,检索增强结构化(RAS)技术应运而生,它整合知识结构化技术(如分类法和知识图谱),将非结构化文本转化为结构化知识,提升推理和验证能力。
10/31/2025 11:26:48 AM
崔皓

利用MCP创建AI代理:C# 实践指南

译者 | 晶颜审校 | 重楼大型语言模型(LLMs)的快速演进已对人工智能应用领域产生颠覆性影响,其核心优势在于具备自然语言理解与生成能力及逻辑推理能力。 然而,LLMs仍存在显著局限性:无法访问实时数据源,亦不能调用外部计算工具。 这种“信息孤立”状态使其无法提供实时更新的信息,同时限制了其在动态系统中的适配能力及文本生成之外的任务执行能力。
10/31/2025 10:26:40 AM
晶颜

8%价格,2倍速度!国产MiniMax M2暴打Claude Sonnet 4.5?我们实测后发现堪称性价比之王!

编辑 | 听雨出品 | 51CTO技术栈(微信号:blog51cto)10月27日,MiniMax正式开源并上线了 MiniMax M2。 官方口号喊得非常响亮:“专为 Agent 和代码而生,仅 Claude Sonnet 8% 价格,2倍速度,限时免费! ”这就引发了很多网友纷纷前去体验,再加上官方延长了限时免费的时间,截至11月7日前都可以免费体验Agent平台和调用API,政策十分诱人。
10/31/2025 10:24:42 AM
听雨

突破长上下文瓶颈!MemoRAG:用全局记忆重构RAG,让 RAG 像人一样 “读长文档” 的核心秘诀

在大模型处理长文本的场景中,你是否曾遇到过这些难题? 直接用长上下文LLM成本高昂,128K tokens的推理不仅耗时长,还会占用大量GPU内存;传统RAG面对模糊查询(比如“总结这本书的核心人物关系”)时束手无策,更无法处理非结构化的超长文档(如100页的法律合同、多年度财务报告)。 今天要介绍的MemoRAG,或许能解决这些痛点。
10/31/2025 10:13:19 AM
Goldma

开源Agent编程模型MiniMax M2,性价比之王

开源模型之王易主,不过还是国产模型! 行业评测里,它在 Artificial Analysis 榜单综合进入全球前五、开源模型第一梯队,重点在编程、工具使用、深度搜索这些 Agent 核心能力上表现亮眼。 MiniMax 刚发布并开源M2模型,它采用稀疏 MoE 架构,总参数 230B,但推理时仅激活约 10B,这意味着在保持高性能的同时,把算力开销和延迟压下来了。
10/31/2025 9:07:24 AM
阿丸笔记