AI在线 AI在线

理论

强化微调 ReFT:开启大语言模型推理新范式

大家好,我是肆〇柒。 因为与合作伙伴项目的需要,最近对 RL 方面的论文关注的多了一些。 这两天,我翻出一篇去年的论文来复习。
6/26/2025 9:06:59 AM
肆零柒

首个面向科学任务、真实交互、自动评估的多模态智能体评测环境,ScienceBoard来了

第一作者孙秋实是香港大学计算与数据科学学院博士生,硕士毕业于新加坡国立大学数据科学系。 主要研究方向为 Computer-using agents 和 Code intelligence,在 NLP 和 ML 顶会 ACL,EMNLP,ICLR,COLM 等发表多篇论文。 本文的 OS-Copilot 团队此前已发布了 OS-Atlas、OS-Genesis 和 SeeClick 等同系列电脑智能体研究成果,被广泛应用于学术界与产业实践中。
6/26/2025 9:01:14 AM

刚刚,何恺明官宣入职谷歌DeepMind!

AI圈炸了! CV大牛何恺明正式官宣入职谷歌。 已更新的个人主页上,明确写着:兼职谷歌DeepMind杰出科学家。
6/26/2025 9:00:37 AM
新智元

何恺明新身份:谷歌DeepMind杰出科学家

刚刚,有网友爆料,自己在公司收到了「欢迎何恺明加入」的邮件,何恺明疑似加入谷歌。 在搜索何恺明个人主页后,我们可以确认,他确实加入了谷歌,不过是以兼职的形式,职位是谷歌 DeepMind 杰出科学家 (Distinguished Scientist)。 个人主页:,目前还搜不到详细信息。
6/26/2025 8:56:59 AM

北大CogSci 2025(Oral)| 人类创造力的核心机制,AI已经开始掌握了

“AI永远无法取代人类”证据-1! 北大团队最新论文揭示:人类引以为傲的创造力,如今AI也开始掌握了。 甚至,研究人员还提出了一种系统性框架,首次从认知科学的角度,对AI模型的组合创造力(Combinational Creativity)进行了量化评估与优化。
6/26/2025 8:56:00 AM

重度使用ChatGPT可导致脑损伤

GoUpSec点评:生成式人工智能已经永久性地污染了人类的在线数字资产,如果说这是一次伟大工业革命的“必要代价”,那么,过于依赖人工智能导致的对人类(尤其是青少年)大脑和认知思辨能力的损伤,则是比“食品安全”、“网络安全”和“气候安全”更加严重但又鲜为人知的威胁。 麻省理工的“吹哨”研究,为我们探索合理发展和应用人工智能技术提供了一个新的风险视角。 在AI狂飙突进的今天,一个根本问题被重新摆上台面:使用ChatGPT究竟是在“解放生产力”,还是在“摧毁思维力”?
6/26/2025 8:54:34 AM

ICML 2025 Oral | 从「浅对齐」到「深思熟虑」,清华牵头搭起大模型安全的下一级阶梯

本工作共同第一作者包括:张亦弛,清华大学计算机系三年级博士生,师从朱军教授,研究方向是多模态大模型和大模型安全,在CVPR、NeurIPS、ICML等顶会发表多篇论文,曾主导开发了首个多模态大模型可信度全面评测基准MultiTrust;张思源,清华大学计算机系一年级硕士生,导师是苏航副研究员,研究方向是大模型安全与对齐算法。 本文通讯作者是清华大学人工智能学院董胤蓬助理教授和计算机系朱军教授。 其他合作者来自北航、瑞莱智慧、阿里安全、百川智能等单位。
6/26/2025 8:42:00 AM

CIO引领AI生产力变革的行动指南

AI生产力繁荣的时代已经到来,它发展迅速,让未做好准备的人措手不及,改变工作的机会巨大,同时责任也重大。 企业技术正在经历一场历史性的重置,AI不再是一个未来的承诺,它正在重塑我们今天的工作方式,对于CIO而言,这意味着要从运营管理者转变为转型推动者。 根据最近麦肯锡的研究,到2030年,GenAI通过提高生产力,每年可为全球经济增加高达4.4万亿美元的价值。
6/26/2025 7:20:00 AM
Ashwin

提示词工程、RAG之后,LangChain:上下文工程开始火了!

AI 时代,你可能听说过提示词工程、RAG、记忆等术语。 但是很少有人提及上下文工程(context engineering)。 其实,这一术语并不新鲜,近两年很多智能体构建者一直在关注这个事情。
6/26/2025 7:00:00 AM
机器之心

CIO们摒弃“广撒网”策略,开始以更战略性的方式推进AI试点项目

在过去的两年里,许多企业已经启动了数十个AI概念验证项目,但这些项目的失败率很高,投资回报率也令人失望,然而,现在出现了一种新趋势,即对AI实验的“散弹枪”式方法进行重大重新评估。 一些IT观察人士现在注意到,许多企业正在减少他们启动的AI概念验证项目数量,一些IT领导者转而使用商业AI工具,而更多人则专注于有限数量的战略性和有针对性的用例。 在经历了一个广泛实验的时代之后,当时公司正在探索AI的潜力,现在许多公司已经将注意力集中在少数几个用例上,AArete公司(一家IT和管理咨询公司)的AI、数字化和技术解决方案董事总经理Bhrugu Pange说道。
6/26/2025 7:00:00 AM
Grant Gross

人工智能在金融网络安全领域的十大实际应用

虽然“人工智能”已成为一个无处不在的流行词,但它对金融机构安全的实际影响却是实实在在的,并且与日俱增。 本文将拨开炒作的迷雾,详细介绍人工智能在现实世界中最重要的十大应用,这些应用目前正在改变金融网络安全运营,涵盖从欺诈预防到威胁情报与合规的各个领域。 人工智能与金融网络安全的融合已远远超出理论探讨,进入了实际应用阶段,影响深远。
6/26/2025 2:27:00 AM
铸盾安全

给Javaer看的大模型开发指南

一、概述二、什么是大模型三、大模型的特点    1. 无状态    2. 结构化输出    3.
6/26/2025 2:24:00 AM

麻省理工研究揭示:ChatGPT等AI工具对认知能力存在侵蚀效应

当 ChatGPT 等 AI 工具成为千万用户的 "数字拐杖" 时,麻省理工学院(MIT)的最新研究敲响了警钟,称这种便利性正在付出认知能力退化的代价。 该研究通过神经科学实验证实,长期依赖 AI 聊天机器人会显著削弱人类的批判性思维、记忆保留和深度思考能力。 MIT 媒体实验室开展对比测试试验MIT 媒体实验室的研究团队将 120 名参与者随机分为三组:ChatGPT 辅助组、搜索引擎组和无工具组,要求完成同一主题的分析性写作任务。
6/26/2025 1:00:00 AM

缓解人工智能威胁:弥合人工智能与传统安全之间的差距

人工智能的飞速发展正以前所未有的速度改变着各个行业,大型语言模型 ( LLM ) 和代理系统已成为现代工作流程的关键。 这种快速部署也暴露出巨大的漏洞,防火墙、EDR 和 SIEM 等传统工具难以应对 AI 特有的威胁,包括自适应威胁模式和隐蔽的即时攻击工程。 除了技术威胁之外,以人为中心的威胁也是现有网络安全问题的核心,利用生成式人工智能 (GPU) 生成的高度个性化网络钓鱼诱饵很容易被检测到。
6/26/2025 1:00:00 AM
何威风

人形机器人首次打通视觉感知与运动断层,UC伯克利华人博士让宇树G1现场演示

不用提前熟悉环境,一声令下,就能让宇树机器人坐在椅子上、桌子上、箱子上! 还能直接解锁 “跨过箱子”、“敲门” 等任务~这是来自UC伯克利、卡内基梅隆大学等团队的最新研究成果LeVERB框架——基于模拟数据训练实现零样本部署,让人形机器人通过感知新环境,理解语言指令就能直接完成全身动作。 传统人形机器人要么 “能看懂指令却动不了”(缺乏全身控制能力),要么 “只能机械执行动作却读不懂环境”(依赖人工预设动作库)。
6/25/2025 4:09:40 PM

LLM的关键转折:LAM,究竟是什么?

作者 | Bill Doerrfeld 编译 | 云昭出品 | 51CTO技术栈(微信号:blog51cto)操作 Windows 程序、自动对账发票、预订航班和酒店——这些只是新一代大型语言模型(LLMs)为 AI 智能体带来的众多可能性中的几个。 研究人员将这一阶段的进化称为“大型行动模型(Large Action Models)”,简称 LAMs。 迄今为止,LLM 是无状态的——它们无法自行采取行动、适应环境或与工具交互。
6/25/2025 2:18:36 PM
云昭

OpenAI突袭AI办公,微软谷歌恐遭大洗牌!密谋一年曝光,Office帝国危了

OpenAI未来想要做的,便是吞掉微软、谷歌的市场。 Information独家爆料称,OpenAI内部已筹划一年,计划在ChatGPT中植入「文档协作」与「即时通讯」功能。 图片OpenAI这一步棋,直接向「金主爸爸」微软发起正面挑战,同时也将开辟与谷歌竞争的新战线。
6/25/2025 1:46:16 PM
新智元

重磅!淘天联合爱橙开源强化学习训练框架ROLL,高效支持十亿到千亿参数大模型训练

过去几年,随着基于人类偏好的强化学习(Reinforcement Learning from Human Feedback,RLHF)的兴起,强化学习(Reinforcement Learning,RL)已成为大语言模型(Large Language Model,LLM)后训练阶段的关键技术。 RL 不仅显著提升了模型的对齐能力,也拓展了其在推理增强、智能体交互等场景下的应用边界。 围绕这一核心范式,研究社区不断演化出多种优化策略和算法变体,如 Agentic RL、RLAIF、GRPO、REINFORCE 等。
6/25/2025 1:44:09 PM