AI在线 AI在线

数据

GPT-4.5登顶6小时即失守!Grok-3上演1分逆袭

基础模型竞争又紧张刺激起来了! GPT-4.5刚登顶竞技场且全任务分类第一名,6小时后总榜就被马斯克的新版Grok-3反超。 两者都是获得3000 票数,总分1412:1411只差一分。
3/5/2025 8:50:00 AM
量子位

DeepSeek全面开源V3/R1推理系统!成本利润率高达545%

就在刚刚,当大家以为开源周已经结束的时候,真「Open AI」DeepSeek带来了压轴大戏——DeepSeek-V3/R1推理系统,全面揭秘! 吞吐量和延迟优化:跨节点高效并行(EP)驱动的批处理扩展计算与通信并行处理智能负载均衡在线服务性能数据:每个H800节点每秒处理73,700/14,800输入/输出token成本利润率高达545�epSeek表示,希望本周分享的技术见解能为开源社区带来价值,共同推进通用人工智能的发展目标。 看到这里,网友都惊了!
3/3/2025 8:17:00 AM
新智元

Nature独家爆料:全球机构撤稿率大排行,医学领域成重灾区

撤稿,是对科研人员诚信的巨大打击,不仅是一篇论文,此前的研究成果都可能遭到同行质疑。 中国在保障学术道德诚信方面的力度非常大,一经发现,即全国通报批评,取消申报课题资格5年,基本就断送了自己的学术生涯。 通报链接::,仍然有大量的科研人员为了一己私利,在论文撰写中捏造数据、伪造实验结果,甚至雇佣写手,从论文工厂中购买。
3/3/2025 7:36:00 AM
新智元

大模型训练或无需“纯净数据”!北大团队新研究:随机噪声影响有限,新方法让模型更抗噪

传统的大语言模型训练需要依赖”纯净数据”——那些经过仔细筛选、符合标准语法且逻辑严密的文本。 但如果这种严格的数据过滤,并不像我们想象中那般重要呢? 这就像教孩子学语言:传统观点认为他们应该只听语法完美的标准发音。
2/28/2025 9:15:00 AM
量子位

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

当前的 AI 领域,可以说 Transformer 与扩散模型是最热门的模型架构。 也因此,有不少研究团队都在尝试将这两种架构融合到一起,以两者之长探索新一代的模型范式,比如我们之前报道过的 LLaDA。 不过,之前这些成果都还只是研究探索,并未真正实现大规模应用。
2/27/2025 1:45:00 PM
机器之心

微软Phi-4家族新增两位成员,5.6B多模态单任务超GPT-4o,3.8B小模型媲美千问7B

动辄百亿、千亿参数的大模型正在一路狂奔,但「小而美」的模型也在闪闪发光。 2024 年底,微软正式发布了 Phi-4—— 在同类产品中表现卓越的小型语言模型(SLM)。 仅用了 40% 合成数据,140 亿参数的 Phi-4 就在数学性能上击败了 GPT-4o。
2/27/2025 1:45:00 PM
机器之心

曝GPT-4.5本周空降!1T激活参数,120T训练数据,会吐出阶段性思考成果然后继续思考

嚯,万众期待的GPT-4.5,本周就要空降发布? ! 部分用户的ChatGPT安卓版本(1.2025.056 测试版)上,已经出现了“GPT-4.5研究预览(GPT-4.5 research preview)”的字样。
2/27/2025 9:49:15 AM
量子位

OpenAI Deep Research已向所有付费用户开放,系统卡发布

相信很多用户已经见识过或至少听说过 Deep Research 的强大能力。 今天凌晨,OpenAI 宣布 Deep Research 已经面向所有 ChatGPT Plus、Team、Edu 和 Enterprise 用户推出(刚发布时仅有 Pro 用户可用),同时,OpenAI 还发布了 Deep Research 系统卡。 此外,OpenAI 研究科学家 Noam Brown 还在 𝕏 上透露:Deep Research 使用的基础模型是 o3 正式版,而非 o3-mini。
2/27/2025 9:45:50 AM
机器之心

通义新一代轻量化大语言模型DistilQwen2.5 发布 提升性能与效率

在大语言模型逐渐普及的今天,如何在资源受限的环境中实现高效部署已成为重要课题。 为了解决这一挑战,基于 Qwen2.5的轻量化大模型系列 DistilQwen2.5正式发布。 该模型采用了创新的双层蒸馏框架,通过优化数据和参数融合技术,不仅保留了模型的性能,同时显著降低了计算资源的消耗。
2/26/2025 4:58:00 PM
AI在线

多模态大模型对齐新范式,10个评估维度全面提升,快手&中科院&南大打破瓶颈

尽管多模态大语言模型(MLLMs)取得了显著的进展,但现有的先进模型仍然缺乏与人类偏好的充分对齐。 这一差距的存在主要是因为现有的对齐研究多集中于某些特定领域(例如减少幻觉问题),是否与人类偏好对齐可以全面提升MLLM的各种能力仍是一个未知数。 快手,中科院,南大合作从三个层面入手推动MLLM alignment的发展,包括数据集,奖励模型以及训练算法,最终的alignment pipeline使得不同基础模型在10个评估维度,27个benchmark上都取得了一致的性能增益,比较突出的是,基于本文提出的数据集和对齐算法对LLaVA-ov-7B模型进行微调后, conversational能力平均提升了19.5%,安全性平均提升了60%。
2/26/2025 1:00:00 PM
量子位

智元机器人AgiBot Digital World仿真框架上线,数据集丰富多样

智元机器人今日正式宣布推出自主研发的大型仿真框架AgiBot Digital World,为机器人操作提供灵活的仿真数据生成方案、预训练的大规模仿真数据和统一的模型评测标准,并同步开源海量仿真数据。 AgiBot Digital World是专为机器人操作技能研究与应用设计的仿真框架,集成海量逼真三维资产、多样化专家轨迹生成机制和全面模型评估工具。 它通过高保真模拟训练场景,全链自动化生成数据,实现一系列具身仿真服务。
2/26/2025 11:18:00 AM
AI在线

开源的风吹到视频生成:阿里开源登顶VBench的万相大模型,一手实测来了!

当很多 AI 公司还就是否该走开源路线而感到左右为难时,阿里的技术团队又开源了一个新的模型 —— 万相(Wan)视频生成大模型(包括全部推理代码和权重,最宽松的开源协议)。 经常玩视频生成模型的同学应该知道,当前的很多模型仍然面临多方面挑战,比如难以还原复杂的人物动作,处理不好物体交互时的物理变化,遇到长文本指令就「选择性遵循」等。 如果三个方面都做得比较好,那模型厂商多半是不舍得开源的。
2/26/2025 9:44:14 AM
机器之心

DeepSeek-R1秘籍轻松迁移,最低只需原始数据0.3%

DeepSeek-R1背后关键——多头潜在注意力机制(MLA),现在也能轻松移植到其他模型了! 而且只需原始数据的0.3%~0.6%。 这项研究由复旦大学、华东师范大学、上海AI Lab等联合提出,复旦教授邱锡鹏(Moss大模型项目负责人)也在作者名单之列。
2/25/2025 10:03:20 AM
量子位

LeCun力荐!进化算法淘汰77%低质数据:RIP方法让模型性能狂飙60%

在LLM的开发中,推动模型进步的主要驱动力是精心挑选高质量的训练示例。 虽然Scaling Law的确能实现「力大砖飞」,但仅仅增加数据量并不能保证模型性能的提升,数据的质量才是关键。 低质量的数据可能会引入噪声,影响模型的训练效果。
2/25/2025 9:17:47 AM
新智元

刚刚,全球首个混合推理模型Claude 3.7降世!最强编程大脑暴击DeepSeek R1

憋了大半年,Anthropic终于放出大招——首款混合推理模型Claude 3.7 Sonnet重磅登场! 这是Claude系列中,迄今为止最智能的模型,几乎能够及时响应,并进行可扩展的、逐步的思考。 简言之,一个模型,两种思考方式。
2/25/2025 9:13:16 AM
新智元

不用GAN不用扩散,无需训练解锁AI生图新境界!判别模型成神秘第三极

判别模型与生成模型长期以来彼此独立,前者专注于分类和识别,后者用于数据生成。 最近一项名为「直接上升合成」(Direct Ascent Synthesis,DAS)的独立研究,颠覆了这一传统观念,揭示出判别模型中隐藏着令人惊叹的生成能力。 论文链接:。
2/24/2025 1:35:00 PM
新智元

国外权威认证!DeepSeek超150万模型,成最受欢迎开源大模型

今天凌晨3点,全球最大开源平台之一huggingface联合创始人兼首席执行官Clement Delangue发布了最新数据:中国开源大模型DeepSeek-R1在150万模型中,成为该平台最受欢迎的开源大模型,点赞超过1万。 前不久,Clement还特意发文恭喜DeepSeek-R1的下载量超过1000万次,同样创造了huggingface平台有史以来最受欢迎的模型。 看来,Clement也吃到DeepSeek的红利了,对它是真爱啊连续表扬。
2/24/2025 10:01:23 AM
AIGC开放社区

出人意料!DeepSeek-R1用的GRPO其实没必要?规模化强化学习训练用PPO就够了

DeepSeek-R1 非常热门,而在其公布的训练配方中,GRPO(Group Relative Policy Optimization)非常关键,是 DeepSeek-R1 核心的强化学习算法。 PPO 与 GRPO 的对比,来自论文《DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models》相较于 PPO,GRPO 去掉了价值模型,而是通过分组分数来估计基线,从而可极大减少训练资源。 DeepSeek-R1 技术报告中写到:「具体来说,我们使用 DeepSeek-V3-Base 作为基础模型,并采用 GRPO 作为强化学习框架来提高模型的推理性能。
2/21/2025 12:24:14 PM
机器之心