AI在线 AI在线

数据

GPT-4.1全网实测来袭,惨遭谷歌Gemini碾压!大佬猜测:从GPT-4.5蒸馏的

不过两月,GPT-4.5正式出局,前浪把后浪拍在了沙滩上。 GPT-4.1家族的出世,以更强编码性能,百万token上下文,更具性价比的价格,直接击穿了4.5。 nano版的GPT-4.1性能足以媲美GPT-4o mini,而且速度更快,价格更便宜。
4/16/2025 9:30:16 AM
新智元

英伟达含量为零!华为密集模型性能比肩DeepSeek-R1,纯昇腾集群训练

密集模型的推理能力也能和DeepSeek-R1掰手腕了? 华为利用纯昇腾集群训练出的盘古Ultra,在数学竞赛、编程等推理任务当中,和R1打得有来有回。 关键是模型参数量只有135B,整个训练过程零英伟达含量,而且没有出现损失尖峰。
4/16/2025 8:50:00 AM
量子位

GPT-4.1淘汰了4.5!全系列百万上下文,主打一个性价比 关注前沿科技 量子位 2025年04月15日 09:44

4.1与4.5孰大? OpenAI刚刚给出答案:发布GPT-4.1,比GPT-4.5强的那种。 新模型系列更新,一共带来三个版本:GPT-4.1,GPT-4.1 mini、GPT-4.1 nano——与通常中杯大杯超大杯的设置不同,这回翻译过来,是中杯、小杯、超小杯。
4/15/2025 9:50:06 AM
量子位

Gemini 2.5编程全球霸榜,谷歌重回AI王座!神秘模型曝光,奥特曼迎战

谷歌,彻底打了一场漂亮的翻身仗。 aider多语言编程基准测试显示,Gemini 2.5 Pro近出世半个多月,编程能力已经是全球第一,口碑一众超越Claude 3.7 Sonnet。 不仅如此,除了DeepSeek,它的性价比也是最优的,成本低至6美金。
4/15/2025 9:03:00 AM
新智元

吉卜力爆红背后,关键推手另有其人!GPT-4o竟封奥特曼为AGI之王

AI版「三国杀」卡牌来了。 AI初创Nous Research联合创始人兼后训练负责人Teknium,有个好点子:把AI名流做成卡牌游戏怎么样? 上周,他用GPT-4o生一堆AI流行人物卡牌,结果非常棒。
4/14/2025 9:25:00 AM
新智元

AI奥数大奖出炉,英伟达摘桂冠!14B破解34题暴击DeepSeek R1

第二届人工智能数学奥林匹克竞赛(AIMO2)开奖了! 作为大赛顾问委员会的一员,陶哲轩激动地宣布了最新的结果——英伟达团队AI成功破解了34道题(共50题)。 这一次,50道测试题保持了与AIMO1相同「数值答案」形式基础上,进一步提升了「抗暴力破解」的难度。
4/14/2025 9:15:00 AM
新智元

GPT-4.1偷偷开跑?神秘模型上线三天已被玩疯,网友发现大量OpenAI痕迹

上线仅三天的神秘模型,已经鲨疯了! 大模型聚合平台OpenRouter新推出的Optimus Alpha,已经处理了772亿Token,平均每天超过200亿。 并且这个数字还在上升,日Token处理已超过340亿,排名第二,并在Trending榜单上位列第一。
4/14/2025 9:00:00 AM
量子位

算法不重要,AI的下一个范式突破,「解锁」新数据源才是关键

众所周知,人工智能在过去十五年里取得了令人难以置信的进步,尤其是在最近五年。 回顾一下人工智能的「四大发明」吧:深度神经网络→Transformer 语言模型→RLHF→推理,基本概括了 AI 领域发生的一切。 我们有了深度神经网络(主要是图像识别系统),然后是文本分类器,然后是聊天机器人,现在我们又有了推理模型。
4/12/2025 3:57:00 PM
机器之心

预训练还没终结!港中文清华等提出「三位一体」框架,持续自我进化

当前(多模态)大模型正深陷「数据饥渴」困境:其性能高度依赖预训练阶段大量高质量(图文对齐)数据的支撑。 然而,现实世界中这类高价值数据资源正在迅速耗尽,传统依赖真实数据驱动模型能力增长的路径已难以为继。 在NeurIPS 2024会议上,OpenAI联合创始人Ilya Sutskever明确指出:「Pre-training as we know it will end」, 这一判断是对传统预范式极限的清晰警示。
4/11/2025 9:35:34 AM
新智元

芯片设计效率提升2.5倍,中科大华为诺亚联合,用GNN+蒙特卡洛树搜索优化电路设计 | ICLR2025

芯片设计是现代科技的核心,逻辑优化(Logic Optimization, LO)作为芯片设计流程中的关键环节,其效率直接影响着芯片设计的整体性能。 然而,传统逻辑优化算子由于存在大量无效和冗余的变换,导致优化过程耗时较长,成为制约芯片设计效率的主要瓶颈。 为解决这一挑战,中科大王杰教授团队(MIRALab)和华为诺亚方舟实验室(HuaweiNoah’sArkLab)联合提出了基于神经符号函数挖掘的高效逻辑优化方法,显著提升传统关键逻辑优化算子运行效率最高达2.5倍。
4/10/2025 9:19:52 AM
量子位

用梯度下降求解整数规划,中科大等提出无监督训练整数规划求解器新范式 | ICLR 2025 Spotlight

无监督学习训练整数规划求解器的新范式来了。 中国科学技术大学王杰教授团队(MIRA Lab)提出了一种全新的整数规划求解方法——DiffILO(Differentiable Integer Linear Programming Optimization),相关论文已被人工智能顶级国际会议ICLR 2025接收为Spotlight。 结果显示:与现有主流的监督学习方法对比,DiffILO不仅显著加快训练速度,还能生成更高质量的可行解。
4/10/2025 9:15:03 AM
量子位

首个统一多模态模型评测标准,DeepSeek Janus理解能力领跑开源,但和闭源还有差距

统一多模态大模型(U-MLLMs)逐渐成为研究热点,近期GPT-4o,Gemini-2.0-flash都展现出了非凡的理解和生成能力,而且还能实现跨模态输入输出,比如图像 文本输入,生成图像或文本。 相比传统的多模态模型(比如 GPT-4V 或 DALL·E 3),这类模型在任务适应性和灵活性上更具优势。 然而,当前研究领域还存在几个突出的问题:1.
4/10/2025 9:15:00 AM
量子位

论文党狂喜!alphaXiv推出Deep Research一秒搜遍arXiv,研究效率直接爆表

刚刚,alphaXiv 推出了新功能「Deep Research for arXiv」,该功能可协助研究人员更高效地在 arXiv 平台上进行学术论文的检索与阅读,显著提升文献检索及研究效率。 体验链接:,当用户输入「Can you help me do a lit review for self-supervised learning. with relevant applications?」时,系统迅速生成了一篇内容完整、结构清晰的文献综述,并提供了 arXiv 链接。
4/9/2025 12:48:13 PM
机器之心

三个LLM顶一个OpenAI?2亿条性能记录加持,路由n个「小」模型逆袭

当前大模型研究面临三大困境:算力垄断(顶尖成果集中于大厂)、成本壁垒(单次训练成本高,可能需要数千GPU小时)以及技术路径单一化(过度依赖单一模型的规模扩展)。 为突破这些限制,路由LLM(Routing LLM)范式应运而生——通过智能调度实现多个开源小模型的协同增效,以「组合创新」替代「规模竞赛」。 代码:: : level的MoE(Mixture-of-Experts),传统MoE通过在模型内部扩展专家网络(如稀疏激活的FFN层)提升性能,而路由LLM将完整LLM视为独立「专家」,通过预训练Router动态分配任务输入。
4/9/2025 9:00:00 AM
新智元

2025 CSRankings排名出炉!上交大、清华北大、浙大霸榜全球AI TOP 10

就在刚刚,2025 CSRankings全球计算机科学排名发布! 地址:,CMU再次霸榜,UIUC曾连续多年稳坐全球第二,如今跌至第6。 中国高校/机构继续包揽多个席位,其中清华排名第2,上交大/浙大并列第3,北大第5。
4/8/2025 9:42:00 AM
新智元

首个个性化对齐大模型问世!可精准识别用户内在动机和偏好,还有百万用户画像开源数据集 | 蚂蚁&人大

如何让大模型更懂「人」? 虽然现有大模型经过了人类价值观对齐训练,但其对齐效果往往会让少数群体的声音被系统性淹没。 那随之而来的问题是,当大模型服务全球用户,标准化对齐范式是否正在制造新的数字鸿沟?
4/8/2025 9:12:00 AM
量子位

中科大ICLR2025:特定领域仅用5%训练数据,知识准确率提升14%

让大语言模型更懂特定领域知识,有新招了! 来自中国科学技术大学MIRA实验室的王杰教授团队提出了提出了一个创新的框架——知识图谱驱动的监督微调(KG-SFT),该框架通过引入知识图谱(KG)来提升大语言模型(LLMs)在特定领域的知识理解和处理能力。 实验结果表明,其在多个领域和多种语言的数据集上取得了显著的效果,成功入选ICLR 2025。
4/8/2025 9:00:00 AM
量子位

CVPR满分论文 | 英伟达开源双目深度估计大模型FoundationStereo

本文介绍了 FoundationStereo,一种用于立体深度估计的基础模型,旨在实现强大的零样本泛化能力。 通过构建大规模(100 万立体图像对)合成训练数据集,结合自动自筛选流程去除模糊样本,并设计了网络架构组件(如侧调谐特征主干和远程上下文推理)来增强可扩展性和准确性。 这些创新显著提升了模型在不同领域的鲁棒性和精度,为零样本立体深度估计设立了新标准。
4/7/2025 9:45:00 AM
机器之心