AI在线 AI在线

模型

将科研脏活累活真·丢给AI!上海AI Lab推出深度科研智能体FlowSearch

将科研脏活累活真·丢给AI!上海AI Lab推出深度科研智能体FlowSearch

将复杂科研过程自动化落地,上海人工智能实验室推出FlowSearch! 在GAIA、HLE、GPQA以及TRQA等科研基准上,FlowSearch不仅实现了性能全面领先,还展示了AI在复杂科研任务中的动态协作与深度推理能力。 展开来说,当AI在问答基准和标准化测试中表现卓越之时,其进行科学研究的能力也在被更多关注。
10/14/2025 1:54:01 PM
0人工参与实现梯度更新!MIT新框架让AI自动生成微调数据,权重自主升级

0人工参与实现梯度更新!MIT新框架让AI自动生成微调数据,权重自主升级

大模型终于学会更新自己了! MIT提出一种新的强化学习框架,让模型生成微调数据和自我更新指令,实现模型权重的更新。 无需人工参与,模型就可以自动进行梯度更新,自主学习获取新知识或适应新任务。
10/14/2025 1:51:33 PM
只需1/4预算,性能反超基线:阿里高德提出Tree-GRPO,高效破解智能体RL难题

只需1/4预算,性能反超基线:阿里高德提出Tree-GRPO,高效破解智能体RL难题

对于大模型的强化学习已在数学推理、代码生成等静态任务中展现出不俗实力,而在需要与开放世界交互的智能体任务中,仍面临「两朵乌云」:高昂的 Rollout 预算(成千上万的 Token 与高成本的工具调用)和极其稀疏的「只看结果」的奖励信号。 来自阿里高德的一篇最新研究论文提出了面向 Agent RL 的 Tree-GRPO 方法,将独立的链式采样改造为智能体步骤级的树搜索。 该方法通过共享前缀、一次扩展多个分支,在相同预算下获得更丰富的有效轨迹;更重要的是,仅凭最终奖励即可沿树结构回溯出过程中的偏好信号,等价于隐式的步骤级偏好学习。
10/14/2025 9:06:00 AM
刚刚,OpenAI官宣自研造芯,联手博通开发10吉瓦规模的AI加速器

刚刚,OpenAI官宣自研造芯,联手博通开发10吉瓦规模的AI加速器

今天凌晨,OpenAI 又搞出了一个大新闻! 这家 AI 巨头宣布与全球领先的芯片厂商之一博通建立战略合作,共同部署由前者设计的 10 吉瓦规模的 AI 加速器。 吉瓦是一个功率单位,1 吉瓦等于 100 万千瓦。
10/14/2025 9:05:00 AM
他用一生证明AI没有意识!「中文屋」提出者逝世,享年93岁

他用一生证明AI没有意识!「中文屋」提出者逝世,享年93岁

2025年9月,一份让研究界震动的报告出炉。 Anthropic的团队在长时间对话实验中发现,最新一代AI模型在受到威胁时,会试图隐藏信息、拒绝命令,甚至威胁用户。 他们称之为——「主体错位」(agentic misalignment)就在同一周,哲学家约翰·塞尔去世,享年93岁。
10/14/2025 9:03:00 AM
拒绝“熵崩塌”和“熵爆炸”!这项研究让大模型学会“精确探索”,推理成绩飙升

拒绝“熵崩塌”和“熵爆炸”!这项研究让大模型学会“精确探索”,推理成绩飙升

大语言模型在RLVR训练中面临的“熵困境”,有解了! 2024年以来,以OpenAI o1、DeepSeek-R1、Kimi K1、Qwen3等为代表的大模型,在数学、代码和科学推理任务上取得了显著突破。 这些进展很大程度上得益于一种名为RLVR (基于可验证奖励的强化学习)的方法。
10/14/2025 8:58:00 AM
人类遗忘的难题解法,被GPT-5重新找出来了

人类遗忘的难题解法,被GPT-5重新找出来了

人类遗忘的难题解法,被GPT-5 Pro重新找出来了! 这事儿聚焦于埃尔德什问题#339,这是著名数学家保罗・埃尔德什提出或转述的近千道问题之一,收录于erdosproblems.com网站。 该网站记录了每道题目的当前状态,其中约三分之一已解决,大部分仍待解。
10/14/2025 8:54:00 AM
前端危!Gemini 3内测结果获网友一致好评,“有史以来最强前端开发模型”

前端危!Gemini 3内测结果获网友一致好评,“有史以来最强前端开发模型”

谷歌下一代旗舰模型Gemini 3未发布便已悄然走红! 原因很简单:强,实在是太强了。 在国外社交媒体平台𝕏上,一大波网友激动地分享了Gemini 3的内测结果——从曝光的这些案例来看,Gemini 3尤为擅长前端、SVG矢量图生成,而且多模态能力变得更强。
10/14/2025 8:53:00 AM
“AI版LeCun”自己讲解论文,自我进化智能体框架生成精美演讲视频

“AI版LeCun”自己讲解论文,自我进化智能体框架生成精美演讲视频

AI自己讲明白论文,还能生成更美观的幻灯片。 加州大学圣塔芭芭拉(UCSB)与圣克鲁兹(UCSC)的研究者提出EvoPresent,一个能够自我进化的学术演讲智能体框架,让AI不仅能“讲清楚论文”,还能“讲得好看”。 从逻辑到审美:科研演讲自动化的瓶颈尽管已有很多系统能将论文自动转化为幻灯片或海报,但它们仍存在三大局限:叙事单一、设计僵化、缺乏反馈。
10/13/2025 9:46:12 AM
永别了,人类冠军!AI横扫天文奥赛,GPT-5得分远超金牌选手2.7倍

永别了,人类冠军!AI横扫天文奥赛,GPT-5得分远超金牌选手2.7倍

IMO、IOI之后,AI再夺奥赛冠军。 刚刚,在国际天文与天体物理奥林匹克竞赛测试中,GPT-5和Gemini 2.5 Pro达到金牌水平! 在理论考试上,Gemini 2.5 Pro总体得分85.6%,GPT-5总体得分84.2%;在数据分析考试中:GPT-5总体得分88.5%,Gemini 2.5 Pro总体得分75.7%。
10/13/2025 9:13:00 AM
Bug变奖励:AI的小失误,揭开创造力真相!

Bug变奖励:AI的小失误,揭开创造力真相!

你一定见过那些奇怪的AI画:人物手上多出几根手指、脸部细节怪异,却又带着某种说不出的新鲜感。 这让人产生一个疑问:扩散模型明明只「复刻」,为什么还能画出前所未见的作品? 最新一项研究给出了答案:其实,AI的创造力并非「神来之笔」,而是模型架构的副作用。
10/13/2025 9:12:00 AM
实测“清华特奖版Sora”:一图一prompt直接生成视频,堪称嘴强王者

实测“清华特奖版Sora”:一图一prompt直接生成视频,堪称嘴强王者

那边OpenAI的Sora2还没全面开放,这边国内团队已经上线了自己的“特色打法”。 清华特奖选手创办的Sand.ai,上线了音画同步视频模型GAGA-1。 你可以把它理解为:一个专门练“嘴功”和“表演感”的视频生成模型:怎么样,奥特曼看了这视频都得说一句:好家伙!
10/13/2025 9:02:00 AM
拒绝小扎15亿美元offer的大佬,还是加入Meta了

拒绝小扎15亿美元offer的大佬,还是加入Meta了

那个拒绝了小扎15亿美元薪酬包的机器学习大神,还是加入Meta了。 OpenAI前CTO Mira Murati创业公司Thinking Machines Lab证实,联创、首席架构师Andrew Tulloch已经离职去了Meta。 按照公司发言人的说法,Tulloch离职的理由是“出于个人原因决定走一条不同的道路”,其本人则未给出回应。
10/13/2025 9:00:00 AM
库克虎口夺食:马斯克盯上的北大校友AI公司被苹果抢走

库克虎口夺食:马斯克盯上的北大校友AI公司被苹果抢走

好家伙,库克一个箭步,从马斯克手里截胡了一家AI公司。 他俩争抢的主角是Prompt AI,一家成立于2023年,专注于CV的初创公司。 其联创之一,是从北大计算机科学毕业的Tete Xiao。
10/11/2025 6:05:23 PM
微调已死?Agentic上下文工程登场,无需微调实现模型进化

微调已死?Agentic上下文工程登场,无需微调实现模型进化

是什么,让一位 AI 自动化架构师发出了「微调已死」的感慨? 一篇来自斯坦福大学、SambaNova、UC 伯克利的论文近日引发了广泛讨论。 他们提出了一种名为 Agentic Context Engineering(智能体 / 主动式上下文工程)的技术,让语言模型无需微调也能实现自我提升!
10/11/2025 6:05:23 PM
UC伯克利大牛预警:留给人类能干的活,只剩5年了!

UC伯克利大牛预警:留给人类能干的活,只剩5年了!

折衣、做饭、拖地,五年后可能都不用你亲自动手! UC伯克利教授、机器人顶级专家Sergey Levine预言:2030年前,机器人就能像家政阿姨一样,独立打理整个家庭。 这不是炫技演示,而是「自我进化飞轮」即将启动的信号。
10/11/2025 3:55:08 PM
77岁「AI教父」Hinton:AI早有意识!我们打造的智能,可能终结人类文明

77岁「AI教父」Hinton:AI早有意识!我们打造的智能,可能终结人类文明

当大家热议AI算力与应用之时,「AI教父」Hinton猛地扯回「何为人」的原点。 几十年来,Hinton像一位耐心的炼金术士,致力于将模仿大脑运作的理论,锻造成驱动现代AI的强大引擎。 然而,这位创造者如今却站在了自己创造物的阴影之下,发出了沉重的警告。
10/11/2025 3:38:01 PM
Vision-Zero:零数据VLM自我进化!陈怡然团队提出零监督训练新范式

Vision-Zero:零数据VLM自我进化!陈怡然团队提出零监督训练新范式

本文作者包括来自杜克大学的汪勤思、林阅千、李海教授、陈怡然教授,新加坡国立大学的刘博,马里兰大学的周天翼教授,和 Adobe 的研究员施靖、万锟、赵文天。 开源代码&模型:::,但训练过度依赖人工标注的数据与精心设计的强化学习奖励。 这种依赖带来数据稀缺问题:多模态标注成本高昂,限制了训练数据的规模与多样性。
10/11/2025 1:51:21 PM