模型
刚刚,2025哥德尔奖出炉!破解30年难题,十年论文摘桂冠
就在刚刚,理论计算机科学界迎来喜讯! 康奈尔大学副教授Eshan Chattopadhyay与导师David Zuckerman,荣获2025年哥德尔奖! 凭借2016年合著的论文《Explicit Two-Source Extractors and Resilient Functions》,他们共享此奖。
6/10/2025 4:27:16 PM
强化学习之父:LLM主导只是暂时,扩展计算才是正解
这是新晋图灵奖得主、强化学习之父Richard Sutton对未来的最新预测。 就在刚刚的新加坡国立大学建校120周年(NUS120)之际,Sutton受邀发表演讲——塑造AI和强化学习的未来。 其实,这已经不是Sutton第一次在公开场合表达类似的观点,早在他19年的著作《痛苦的教训》中,他就明确提出:让AI尤其是LLM模仿人类思维方式,只能带来短期的性能提升,长期看只会阻碍研究的持续进步。
6/10/2025 11:22:09 AM
比自回归更灵活、比离散扩散更通用,首个纯Discrete Flow Matching多模态巨兽降临
王劲,香港大学计算机系二年级博士生,导师为罗平老师。 研究兴趣包括多模态大模型训练与评测、伪造检测等,有多项工作发表于 ICML、CVPR、ICCV、ECCV 等国际学术会议。 近年来,大型语言模型(LLMs)在多模态任务中取得了显著进展,在人工通用智能(AGI)的两大核心支柱(即理解与生成)方面展现出强大潜力。
6/10/2025 9:18:53 AM
AI集体“听不懂”!MMAR基准测试揭示音频大模型巨大短板
用AI来整理会议内容,已经是人类的常规操作。 不过,你猜怎么着? 面对1000道多步骤音频推理题时,30款AI模型竟然几乎全军覆没,很多开源模型表现甚至接近瞎猜。
6/10/2025 9:10:00 AM
AI七个月突破数学家“围剿”反超人类!14位数学家深挖原始推理token:不靠死记硬背靠直觉
从只能答对2%的题目,到在超难数学题集中刷下22%得分,甚至超过人类团队平均水平,大模型需要多长时间? 现在,令数学家们都惊讶的结果已经尘埃落定:7个月。 发生在大名鼎鼎的“专为为难大模型而生的”FrontierMath基准测试上的这一幕,在激起热议同时,也引发了新的思考:大模型们是怎么做到的?
6/10/2025 9:09:00 AM
双重突破:全球首个零售VLA大模型来了!开源OpenWBT让机器人遥操门槛暴降!
学会“适当暂停与总结”,大模型终于实现无限推理。 想象一下,让你一口气不歇地推演一个超复杂数学证明,大脑也会“内存溢出”吧? 如今的大模型在长上下文推理中也面临同样的困境,随着推理长度增加而指数级增长的计算成本,以及由于长度受限而被迫中断推理过程。
6/10/2025 9:07:00 AM
首创像素空间推理,7B模型领先GPT-4o,让VLM能像人类一样「眼脑并用」
视觉语言模型(VLM)正经历从「感知」到「认知」的关键跃迁。 当OpenAI的o3系列通过「图像思维」(Thinking with Images)让模型学会缩放、标记视觉区域时,我们看到了多模态交互的全新可能。 然而,当前主流VLM仍被困在「文本茧房」中——依赖文本token间接翻译视觉信息,在高清图像中的微小物体、视频里的动态细节等场景中,常常因缺乏直接视觉操作能力而「视而不见」。
6/10/2025 9:07:00 AM
无需SFT也不用RL,样本级推理优化神器SLOT来了,准确率轻松+10%
试想一下,如果你参加考试时,可以在答题前花几秒钟「适应」一下这道具体的题目,你的表现会不会更好? 这正是西湖大学研究团队在最新论文中提出的核心思想。 他们开发的 SLOT(Sample-specific Language Model Optimization at Test-time)方法,把每个输入 prompt 本身当作一份「迷你训练数据」,让模型在生成答案前先「学习」理解这个具体问题。
6/10/2025 9:05:00 AM
大模型能够自发形成“人类思维地图”!Nature子刊重磅研究揭示多模态大模型类脑机制
大模型≠随机鹦鹉! Nature子刊最新研究证明:大模型内部存在着类似人类对现实世界概念的理解。 LLM能理解现实世界和各种抽象概念吗?
6/10/2025 9:04:00 AM
AI 成本直降 90%!女股神 Cathie Wood 圈定 3 条迁徙线:Robotaxi、端侧大模型、AI 医药
(视频来源:对话ARK Invest创始人Cathie Wood)北京时间 6 月 5 日,在《The Diary of a CEO》最新一期节目中,ARK Invest 创始人、掌管 300 亿美元资产的‘女股神’ Cathie Wood(凯茜·伍德),用三组数据划出 AI 落地的爆发路径:训练侧:过去两年,GPT-3 级别模型的训练成本从 460 万美元跌到 45 万美元,年降幅约 70%,堪称“断崖式”跳水;应用侧:ARK 测算 Robotaxi 单英里成本可低至 0.25 美元,比现有网约车便宜近 90%;消费侧:AI 代理激发的新消费行为,2030 年线上支出或达 9 万亿美元,改写全球最大产业链的资金流。 在同一天,特朗普在 Truth Social 威胁“取消特斯拉全部政府合同”,引发政商关系骤然紧张。 但 Cathie Wood 的判断更冷静、更本质:“Robotaxi 的成败,关键不是谁在互呛,而是成本模型能不能跑通。
6/9/2025 5:32:09 PM
3B超越DeepSeek,大模型终于理解时间了!Time-R1一统过去/未来/生成
时间,是我们日常生活中最基础的概念。 但对于大语言模型(LLM)来说,它们或许能写诗作画、通晓古今,但在真正理解和运用时间概念时,却常常显得力不从心。 这个技术短板来自于大模型的底层设计,无法避免:训练语料库是静态的,存在知识截断时间;在按非时间顺序的语料训练过程中,跨越不同时期的时间信息是同时处理的,不像人类逐步接收知识,阻碍了在事件与其对应时间之间建立可靠的逻辑映射。
6/9/2025 3:25:03 PM
Google AI Studio 政策变动:Gemini2.5Pro 模型免费访问遭“限流”
Google 正在逐步调整其 AI 模型使用政策。 自5月起,面向开发者的 AI 测试平台 Google AI Studio 已停止向免费用户提供 Gemini2.5Pro 系列模型的调用权限。 官方回应称,这是转向全新 基于 API 密钥的使用系统 的一部分,未来开发者将需自行提供 API 密钥接入模型服务。
6/9/2025 2:00:56 PM
AI在线
小红书开源首个大模型,11万亿非合成训练数据
国内著名社交平台小红书,开源了首个大模型——dots.llm1。 dots.llm1是一个1420亿参数的专家混合模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。 dots.llm1最大特色是使用了11.2万亿token的非合成高质量训练数据,这在现阶段的开源大模型中非常罕见,看来小红书也得益于自己庞大的语料库出手就是阔啊。
6/9/2025 9:41:25 AM
大模型强化学习新突破——SPO新范式助力大模型推理能力提升!
当前,强化学习(RL)在提升大语言模型(LLM)推理能力方面展现出巨大潜力。 DeepSeek R1、Kimi K1.5 和 Qwen 3 等模型充分证明了 RL 在增强 LLM 复杂推理能力方面的有效性。 然而,要实现有效的强化学习,需要解决一个根本性的挑战,即信用分配问题(credit assignment):在大语言模型的场景下,如何将整个序列(LLM 的回复)最终的评估结果,归因到序列中具体的决策动作(token)上。
6/9/2025 9:32:35 AM
ICML 2025 | 全局池化+局部保留,CCA-Attention为LLM长文本建模带来突破性进展
琶洲实验室、华南理工大学联合推出关键上下文感知注意力机制(CCA-Attention),实现超长文本的高效上下文建模。 在 128K 超长序列上下文建模任务中,CCA-Attention 的推理速度是标准自注意力机制的 7.9 倍,同时键值缓存(KV Cache)显存占用减少 93%,性能全面优于现有高效注意力方法。 论文标题:Core Context Aware Transformers for Long Context Language Modeling论文链接:::2024年12月17日该成果已被 ICML 2025 接收,最早于 2024 年 12 月 17 日提交至 ArXiv,早于 DeepSeek NSA 和 Kimi MoBA 公开。
6/9/2025 9:23:05 AM
算力终结者来了!华人天团「降维打击」注意力瓶颈,AI狂飙进对数时代
LLM苦算力太久了! 为缓解长序列建模中的算力瓶颈,研究界持续探索高效替代方案。 这次Mamba作者Tri Dao、华人AI领域大牛Eric P.
6/9/2025 9:05:00 AM
为什么用错奖励,模型也能提分?新研究:模型学的不是新知识,是思维
本文主要作者是吕昂和谢若冰。 吕昂,中国人民大学博士生,研究方向为语言模型结构优化,导师为严睿教授;谢若冰,腾讯高级研究员,研究方向为大语言模型、推荐系统。 最近的一篇论文中,来自人大和腾讯的研究者们的研究表明,语言模型对强化学习中的奖励噪音具有鲁棒性,即使翻转相当一部分的奖励(例如,正确答案得 0 分,错误答案得 1 分),也不会显著影响下游任务的表现。
6/9/2025 9:04:00 AM
告别「失忆」AI!首个大模型记忆操作系统开源框架来了!
该项目来自百家 AI,是北京邮电大学白婷副教授所指导的研究小组, 团队致力于为硅基人类倾力打造情感饱满、记忆超凡的智慧大脑。 大语言模型受限于固定上下文窗口,长期对话中「失忆」、记忆断裂等问题频发,北邮百家 AI 团队重磅推出首个大模型记忆操作系统开源框架 MemoryOS。 巧妙融合计算机操作系统原理与人脑分层记忆机制,构建段页式三级存储架构及四大核心模块(存储、更新、检索、生成),提供全链路用户记忆管理方案,让 AI 智能体拥有持久「记性」与深度「个性」。
6/9/2025 8:56:00 AM
资讯热榜
智谱AI全新企业级超级助手Agent CoCo正式上线
苹果发布全新Xcode 26开发者工具:内置ChatGPT先进AI功能
首月 1 美元,ChatGPT Team 会员美区 / 英区 / 欧洲区 / 澳洲区迎优惠
豆包App“一句话P图”功能全新升级 基于SeedEdit 3.0实现全面优化
那个男人回来了!Ilya现身多伦多大学毕业典礼:AI 像是用数字方式复制出来的大脑!不管你愿不愿意,AI都将深刻影响你的一生!
DeepSeek前高管秘密创业,新AI Agent项目已获顶级VC押注
支持MCP!开源智能体开发框架 Rowboat:打造你的智能助手只需几分钟
ChatGPT 语音功能升级,实时翻译对话更自然流畅
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
数据
谷歌
机器人
大模型
Midjourney
用户
智能
开源
微软
GPT
学习
Meta
图像
技术
AI创作
Gemini
论文
马斯克
Stable Diffusion
算法
代码
英伟达
Anthropic
芯片
生成式
开发者
蛋白质
腾讯
神经网络
研究
3D
生成
训练
苹果
计算
智能体
Sora
机器学习
AI设计
AI for Science
Claude
GPU
AI视频
人形机器人
华为
搜索
场景
百度
大语言模型
xAI
预测
伟达
深度学习
Transformer
字节跳动
Agent
模态
具身智能
神器推荐
LLaMA
文本
视觉
Copilot
算力
工具
LLM
驾驶
API
大型语言模型
应用
RAG
亚马逊