AI在线 AI在线

AI

大模型数据味蕾论

AI大模型就像一位厨师,预训练数据就是这位厨师的味蕾。  没有经过训练的味蕾,再好的食材也无法变成美味佳肴。 没有优质的预训练数据,再强大的计算资源也打造不出卓越大模型。
4/24/2025 9:26:13 AM
大数据AI智能圈

Adam获时间检验奖!清华揭示保辛动力学本质,提出全新RAD优化器

ICLR(国际学习表征会议)是机器学习领域三大顶会之一,以推动深度学习基础理论和技术创新著称。 每年,ICLR时间检验奖都会授予近十年对深度学习领域产生深远影响的里程碑式论文。 今年这一殊荣花落Adam优化器(Adaptive Moment Estimation),该算法于2014年由OpenAI工程师Diederik Kingma和University of Toronto研究生Jimmy Ba提出。
4/24/2025 9:16:00 AM
新智元

大学文凭成废纸?AI暴击美国00后!他哥大退学成千万富翁,我却还要还学贷

摊牌了,不装了,美国的Z时代已经对上大学彻底不耐烦了。 现在,他们喊出这样的宣言:有了ChatGPT,大学文凭已经彻底成了一张废纸! 纯粹就是浪费时间和金钱。
4/24/2025 9:14:00 AM
新智元

礼貌寒暄推高AI问答成本!OpenAI每年为此多花数千万美元?

近日,美国科技公司OpenAI的首席执行官萨姆·奥尔特曼在社交平台上透露了一个令人意外的现象:用户在与ChatGPT互动时频繁使用“请”“谢谢”等礼貌用语,这一行为竟然导致公司每年需额外承担数千万美元的运营成本。 这一消息引发了广泛讨论,人们不禁好奇,为何简单的礼貌寒暄会带来如此高昂的成本? 礼貌寒暄背后的成本根据《今日美国》及美国《石英》杂志的报道,当用户在ChatGPT的用户界面说“谢谢”时,大模型会按照算法回复“不客气”。
4/24/2025 9:11:09 AM
小菲

理解 RAG 第三部分:融合检索与重新排序

我们之前介绍了什么是 RAG、它在大型语言模型 (LLM) 中的重要性,以及 RAG 的经典检索器、生成器系统是什么样的,本系列的第三篇文章探讨了一种构建 RAG 系统的升级方法:融合检索。 在深入探讨之前,值得简要回顾一下我们在本系列第二部分中探讨过的基本 RAG 方案。 融合检索解析融合检索方法涉及在检索增强生成(RAG)系统的检索阶段中融合或聚合多个信息流。
4/24/2025 9:04:42 AM
晓晓

几行代码,一窥上帝造物!帝国理工开源CAX,引爆人工生命新纪元

人工生命研究的新纪元! 「人工生命」(artificial life,或简写为ALife),旨在模拟生命的行为、特性和演化过程,理解生命的本质,涉及涌现现象、自组织系统或形态发生机制。 人工生命(ALife)的研究中,蕴含着能够推动和加速AI进步的重要启发和灵感。
4/24/2025 9:03:00 AM
新智元

理解 RAG 第二部分:经典 RAG 的工作原理

在本系列的第一篇文章中,我们介绍了检索增强生成 (RAG) ,并解释了扩展传统大型语言模型 (LLM)功能的必要性。 我们还简要概述了 RAG 的核心思想:从外部知识库中检索上下文相关的信息,以确保 LLM 生成准确且最新的信息,而不会产生幻觉,也无需不断地重新训练模型。 本系列的第二篇文章将揭秘传统 RAG 系统运行的机制。
4/24/2025 1:10:00 AM
晓晓

理解 RAG 第一部分:为什么需要它

自然语言处理(NLP) 是人工智能(AI)的一个领域,旨在教会计算机理解人类的书面和口头语言,并运用这些语言与人类互动。 虽然传统的 NLP 方法已研究数十年,但近年来出现的大型语言模型(LLM) 几乎主导了该领域的所有发展。 LLM 通过将复杂的深度学习架构与能够分析语言中复杂模式和相互依赖关系的自注意力机制相结合,彻底改变了 NLP 和整个人工智能领域。
4/24/2025 12:10:00 AM
晓晓

仅用3周时间,就打造出Manus开源平替!贡献源代码,免费用

可以对标 Manus 的智能体 Suna 来了! (有没有发现它是 manus 倒过来写)这款智能体由 Kortix AI 团队打造,开源并且完全免费。 具体而言,Suna 是一个完全开源的 AI 助手,旨在帮助用户轻松完成现实世界中的各种任务。
4/23/2025 5:22:59 PM
机器之心

业内首次! 全面复现DeepSeek-R1-Zero数学代码能力,训练步数仅需其1/10

OpenAI 的 o1 系列和 DeepSeek-R1 的成功充分证明,大规模强化学习已成为一种极为有效的方法,能够激发大型语言模型(LLM) 的复杂推理行为并显著提升其能力。 然而,这些推理模型的核心训练方法在其技术报告中仍然鲜有披露。 近期社区的主要工作也仅局限于数学推理领域,使得跨领域泛化这一挑战依然未得到充分探索。
4/23/2025 3:23:25 PM
机器之心

英伟达发布 Eagle 2.5 视觉语言 AI 模型:8B 参数媲美 GPT-4o

该模型专注于理解大规模视频和图像,尤其擅长处理高分辨率图像和长视频序列。尽管参数规模仅为 8B,Eagle 2.5 在 Video-MME 基准测试(512 帧输入)中得分高达 72.4%,接近甚至媲美 Qwen2.5-VL-72B 和 InternVL2.5-78B 等更大规模模型。
4/23/2025 2:20:25 PM
故渊

AI 革新医疗:谷歌 DeepMind 首席执行官预测,十年内帮助消灭所有疾病

接受 CBS《60 分钟》采访时,谷歌 DeepMind 联合创始人兼首席执行官戴密斯・哈萨比斯(Demis Hassabis)预测,人工智能(AI)将在未来十年内“革命化”人类健康,甚至可能帮助消灭所有疾病。
4/23/2025 2:03:01 PM
故渊

中杯o3成OpenAI“性价比之王”?ARC-AGI测试结果出炉:得分翻倍、成本仅1/20

得分比第二名翻倍,成本却仅为1/20? o3中杯在超难推理任务ARC-AGI上的新成绩,属实又给众人带来了亿点点震撼。 根据ARC Prize官方介绍,本轮测试得出的关键结论如下:o3 (Medium) 在ARC-AGI-1上得分为57%,成本为1.5美元/任务,优于目前所有已知COT推理模型;o4-mini(Medium)在ARC-AGI-1上得分为42%,成本为0.23美元/任务,准确率不足但成本优势明显;在难度升级的ARC-AGI-2上,两种型号模型的准确率均未超过3%。
4/23/2025 11:19:31 AM
量子位

RL 是推理神器?清华上交大最新研究指出:RL 让大模型更会“套公式”、却不会真推理

清华和上交的最新论文中,上演了一场“学术打假”的戏码。 文中研究者们对当前“纯 RL 有利于提升模型推理能力”的主流观点提出了相反的意见。 通过一系列实验,他们证明引入强化学习的模型在某些任务中的表现,竟然不如未使用强化学习的模型。
4/23/2025 11:11:00 AM
郑佳美||梁丙鉴

强化学习之于 AI Agent,是灵魂、还是包袱?

自主决策能力是 Agent 受到重视,并被称为 AI 时代“新基建”原因。 从这个角度看,Workflow 似乎做不出真正的通用 Agent。 而要谈真正具备决策能力和自我意识的 Agent,其实要从 AlphaGo 的问世说起。
4/23/2025 10:57:00 AM
郑佳美

Agent 要被吃进大模型了

今天凌晨,奥特曼突然发文宣布推出自家最新的 o 系列模型:满血版 o3 和 o4-mini,同时表示这两款模型都可以自由调用 ChatGPT 里的各种工具,包括但不限于图像生成、图像分析、文件解释、网络搜索、Python。 总的来说,就是比前一代的性能更强而且价格更低。 消息一出,马上就有网友晒出了两个模型的“小球测试”结果,并配文:“这确实是迄今为止看到的最好的测试结果了。
4/23/2025 10:50:00 AM
郑佳美

Llama 4 刷榜作弊引热议,20 万显卡集群就做出了个这?

昨天一早,Meta 了放出自家用了 20 万显卡集群训练出的 Llama 4 系列模型,其中包括 Llama 4 Scout、Llama 4 Maverick 和 Llama 4 Behemoth。 消息一出,直接引爆了大模型圈。 Meta 还特意强调,这些模型都经过了大量未标注的文本、图像和视频数据的训练,视觉理解能力已经到了 Next level,有种在大模型领域一骑绝尘的既视感。
4/23/2025 10:44:00 AM
郑佳美

清华&英伟达揭露ICML最佳论文隐藏数值问题,简单掩码模型是等价更好选择 | ICLR25

掩码离散扩散模型,可能并没有看上去那么厉害。 这是清华及英伟达研究人员最新提出的观点。 他们发现,作为离散扩散模型中性能最强的类别,掩码扩散模型可能有点“被包装过度”了。
4/23/2025 9:44:54 AM