AI在线 AI在线

数据

挑战强化学习后训练霸权!全新无监督方法仅需1条数据+10步优化

无需标注数据、无需繁琐奖励设计,只用10步就能见效——「熵最小化」或许比强化学习更适合大语言模型快速升级。 强化学习(RL)近年来在大语言模型(LLM)的微调中大获成功,但高昂的数据标注成本、复杂的奖励设计和漫长的训练周期,成为制约RL进一步应用的瓶颈。 Ubiquant研究团队提出了一种极为简单有效的无监督方法——One Shot熵最小化(Entropy Minimization,EM),仅用一条无标签数据,训练10步内即可显著提升LLM性能,甚至超过使用成千上万数据的RL方法。
6/3/2025 8:49:00 AM

极低成本,复现GPT-4o图像风格化一致性!NUS推出OmniConsistency

本文由 NUS ShowLab 主导完成。 第一作者宋亦仁为新加坡国立大学 ShowLab@NUS 在读博士生,研究方向是视觉生成和多模态,在 CVPR、SIGGRAPH、NeurIPS 等国际顶级会议上发表多篇研究成果。 共同一作刘成为 NUS 重庆研究院四年级本科生,研究方向是视觉生成。
6/3/2025 8:26:00 AM

SOTA大模型遇上加密数据评测:Qwen3未破10%,o1也栽了丨上海AI Lab等联合研究

大语言模型遇上加密数据,即使是最新Qwen3也直冒冷汗! 尽管当前的推理模型在各类基准测试中展现出卓越的性能,但在密码学这一对逻辑严密性和细节精确度要求近乎苛刻的专业领域,模型的推理能力仍有待深入探索。 密码学不仅需要模型具备高阶数学运算能力和严密的逻辑推理链条,更要求其能够精准识别复杂加密模式中的潜在规律;成功解密需要模型具有极强的综合推理能力。
5/30/2025 9:03:00 AM

还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

Pangu Ultra MoE 是一个全流程在昇腾 NPU 上训练的准万亿 MoE 模型,此前发布了英文技术报告[1]。 最近华为盘古团队发布了 Pangu Ultra MoE 模型架构与训练方法的中文技术报告,进一步披露了这个模型的细节。 训练超大规模和极高稀疏性的 MoE 模型极具挑战,训练过程中的稳定性往往难以保障。
5/30/2025 8:45:00 AM

数据提取场景下不同LLM模型对比分析

在数字化时代,数据作为核心资产,其高效处理与利用成为企业和组织发展的关键。 然而,大量数据以非结构化文本、传统文档等形式存在,导致数据提取面临巨大挑战。 人工智能,尤其是大语言模型(LLMs)的爆发式发展,为大规模自动化数据提取提供了新的可能。
5/29/2025 1:50:00 AM
大模型之路

首个面向柔性衣物灵巧操作的仿真平台来了,北大、伯克利联合发布

本论文共同第一作者为王昱然、吴睿海、陈越,导师为北京大学董豪老师。 课题组致力于统一的物体表征操作研究,以实现具有可解释性和泛化能力的物体操作策略。 在机器人操作领域,柔性物体,尤其是衣物的操控始终是一个值得关注的难题。
5/28/2025 6:43:17 PM

开源模型竟被用于窃取下游微调数据?清华团队揭秘开源微调范式新型隐藏安全风险

本文作者分别来自清华大学 CoAI 小组和墨尔本大学。 第一作者张哲昕为清华大学直博三年级学生,研究方向为大模型安全,主要合作者为孙玉豪,来自墨尔本大学,主要指导教师为清华大学王宏宁副教授与黄民烈教授。 基于开源模型继续在下游任务上使用私有下游数据进行微调,得到在下游任务表现更好的专有模型,已经成为了一类标准范式。
5/28/2025 11:46:18 AM

GPA只有3.3,顶会一作两篇,成功杀进TOP 20 AI博士?小哥曝光关键秘诀

两篇顶会一作,在亚洲攻读硕士学位,2026年春季毕业。 这位网友表示,自己计划申请2026年秋季开学的博士项目。 他的条件是:本科GPA在3.2-3.3左右,不算很高,但有一些研究经验。
5/28/2025 11:43:06 AM

对话27岁博导张林峰:模型压缩获CVPR满分有点意外,上海交大像我这样年轻老师很多

上海交大、27岁、最年轻博导,留给张林峰的标签不多了(Doge)。 最新引发关注的,是他实实在在的一个论文成果——他们提出了一种新的数据集蒸馏方法,结果获得了CVPR 2025满分。 通过引入一个辅助的神经网络,只需一块6年前的2080Ti,就能做大模型数据蒸馏。
5/27/2025 3:44:28 PM

社区造数服务接入MCP

一、背景今年 MCP 的概念非常火,市面上也涌现出了一大批 MCP 相关工具。 作为技术一线者,都会按捺不住地去实操一下,很早的时候就有个设想,如果把我们的测试工具都改造为符合 MCP 服务协议标准,然后全部接入 AI Agent,打造一个集万千工具于一体的智能管家来帮助我们提效,是不是一个很完美的设想。 很多宏伟或者天马行空的想法想要真正的落地,必然需要不断向下,拆解成可落地的任务模块,这里我们先从造数开始。
5/27/2025 12:15:07 AM
阿凯

AI在「赚钱锦标赛」夺冠,比人类还会做生意!躺赚时代要来了?

如何用AI赚钱,可能是这个时代最常见的问题。 有些人选择用大模型写小说、写报告、写文案等等,但这些场景只是让模型在执行一些「短期且孤立」的任务。 如果能找到合适的应用场景,比如「用自动驾驶跑网约车」,并且模型还能够在长时间内保持连贯的输出,再那岂不是就能躺赚了?
5/26/2025 9:14:00 AM

比甄嬛还狠!奥特曼「千面人设」被揭穿,MIT华人记者7年曝黑幕

OpenAI的「宫斗」往事,还有大瓜! 因为曝料实在太过惊人,奥特曼在相关书籍正式出版之前,否认三连,撇清关系。 但曝料人Karen Hao毕业于MIT,曝料过多家美国科技巨头的「黑幕」,因新闻报道获得多个奖项。
5/26/2025 9:07:00 AM

312条轨迹助力241%性能提升,上交大与SII开源电脑智能体引领新潮流

在电脑智能体(Computer Use Agent)领域,最近有一个激动人心的进展。 上海交通大学与 SII 的研究团队,借助仅312条人类标注的操作轨迹,成功训练出了名为 PC Agent-E 的新一代开源电脑智能体,其性能提升高达241%,超越了著名的 Claude3.7Sonnet,成为 Windows 系统上的新一代最优模型。 自从 Anthropic 推出 Claude Computer Use 以来,电脑智能体的发展一直备受关注。
5/26/2025 9:01:10 AM
AI在线

矩阵乘法新突破!XX^T原来可以更快!RL助力搜索,世界纪录又被提升了5%

深圳市大数据研究院、香港中文大学(深圳)研究团队最新研究发现, 这类特殊的矩阵乘法可以进一步加速,并在强化学习与组合优化技术的结合下发掘出了一种新的算法,节省 5% 的乘法数量。 论文标题:XXt Can Be Faster论文链接: X 引发热烈讨论,并引起 MIT、斯坦福、哈佛及 Google DeepMind 科学家的广泛关注。 背景矩阵乘法优化堪称计算机科学领域的「珠穆朗玛峰」。
5/26/2025 8:41:00 AM

聚力数据库与AI,OceanBase 6篇论文入选国际顶会ICDE 2025

5月19日-23日,国际顶级数据库学术会议ICDE 2025(第41届IEEE国际数据工程大会)于中国香港举办。 本届会议中国高校和企业表现亮眼,其中数据库厂商OceanBase共有6篇论文入选,有1篇获“最佳工业和应用论文亚军”,研究方向包括分布式数据库、联邦学习、隐私保护等,展现了其在数据库与AI融合上的突破进展。  ICDE与SIGMOD、VLDB并称为数据库领域三大顶级会议,是中国计算机学会CCF推荐的A类国际学术会议,在全球学术圈中拥有极高的权威性和影响力。
5/23/2025 2:55:00 PM
徐咪

字节跳动与清华大学合作推出时序多模态大模型ChatTS

在多模态大语言模型(MLLM)迅速发展的浪潮中,字节跳动与清华大学近日联合发布了名为 ChatTS 的新型时序多模态大模型。 ChatTS 的推出不仅为时序数据的处理与推理注入了新活力,也填补了当前市场在这一领域的空白。 该模型的开发旨在提升 AI 在时序数据问答与推理中的应用能力,尤其在 AIOps 与金融等需要处理复杂时序数据的场景中显得尤为重要。
5/23/2025 11:00:55 AM
AI在线

代码、多模态检索全面登顶SOTA!智源BGE向量模型三连击,并全面开放

检索增强技术在代码及多模态场景中的发挥着重要作用,而向量模型是检索增强体系中的重要组成部分。 针对这一需求,近日,智源研究院联合多所高校研发了三款向量模型,包括代码向量模型 BGE-Code-v1,多模态向量模型 BGE-VL-v1.5 以及视觉化文档向量模型 BGE-VL-Screenshot。 这些模型取得了代码及多模态检索的最佳效果,并以较大优势登顶 CoIR、Code-RAG、MMEB、MVRB 等领域内主要测试基准。
5/21/2025 8:35:00 AM

蚂蚁集团CTO揭示大模型 “幻觉” 根源:数据短缺是关键

在近日举行的 OceanBase 开发者大会上,蚂蚁集团的首席技术官何征宇发表了关于人工智能(AI)发展的一番看法。 他指出,数据是推动 AI 进步的基石,而数据的量和质量直接影响大模型的能力和表现。 他强调,缺乏足够的数据将导致 AI 技术产生 “幻觉”,而这种现象在当前的技术环境中愈发明显。
5/19/2025 11:01:06 AM
AI在线