AI在线 AI在线

资讯列表

AI自动写学术综述:10分钟生成6万字,成本不到四块钱

学术综述论文在科学研究中发挥着至关重要的作用,特别是在研究文献快速增长的时代。 传统的人工驱动综述写作需要研究者审阅大量文章,既耗时又难以跟上最新进展。 而现有的自动化综述生成方法面临诸多挑战:AI生成的综述结构往往缺乏连贯逻辑,组织结构较差,存在宽度和深度的结构失衡问题;在参考文献方面,经常无法引用真正相关和有影响力的文献,容易引用无关文献而忽略核心贡献;评估方式主要依赖LLM整体质量评估,缺乏对大纲质量、参考文献相关性等关键方面的细粒度分析。
6/13/2025 9:08:00 AM

黄仁勋发布量子计算专用CUDA!预言量子计算机几年内应用,但现在还离不开GB200

“量子计算正在到达一个拐点。 ”在GTC巴黎的演讲中,英伟达CEO黄仁勋对量子计算给出了新的论断。 这次,老黄一改此前“实用量子计算机还要20年”的观点,预言量子计算机的实际应用在几年内就能实现。
6/13/2025 9:06:00 AM

256块NPU训成8B视频模型、超越Sora等一众闭源!抖音内容技术团队开源ContentV

近日,抖音内容技术团队开源了 ContentV,一种面向视频生成任务的高效训练方案。 该方案在多项技术优化的基础上,使用 256 块 NPU,在约 4 周内完成了一个 8B 参数模型的训练。 尽管资源有限,ContentV 在多个评估维度上取得了与现有主流方案相近的生成效果。
6/13/2025 9:03:00 AM

黄仁勋亲述:当年如何把“价值数十亿美金”的首台AI超算,亲手送给了OpenAI

老黄在法国巴黎最新演讲讲了一个小故事:OpenAI如何获得全世界第一台AI超级计算机。 如今,当人们谈论这一波人工智能的浪潮时,英伟达(NVIDIA)和OpenAI是两个无法绕开的名字。 前者是AI算力的基石,后者则用ChatGPT等产品引爆了全球的AI革命。
6/13/2025 9:02:18 AM

苹果AI发展深陷困境:Siri升级计划屡屡受挫,多次跳票面临尴尬境地

在科技行业全力奔赴 AI 未来的进程中,苹果公司却在 AI 赛道上举步维艰,尤其是其核心语音助手 Siri 的升级计划,更是麻烦不断,陷入了难以挣脱的泥沼。 自 2024 年苹果在全球开发者大会(WWDC)上首次展示 Siri 智能升级功能,试图重塑其在 AI领域的形象以来,这场 AI 革新之旅就充满了坎坷。 按照最初规划,新一代 Siri 功能将在 iOS 18.4 .
6/13/2025 8:53:44 AM
小菲

何恺明改进了谢赛宁的REPA:极大简化但性能依旧强悍

在建模复杂的数据分布方面,扩散生成模型表现出色,不过它的成果大体上与表征学习(representation learning)领域关联不大。 通常来说,扩散模型的训练目标包含一个专注于重构(例如去噪)的回归项,但缺乏为生成学习到的表征的显式正则化项。 这种图像生成范式与图像识别范式差异明显 —— 过去十年来,图像识别领域的核心主题和驱动力一直是表征学习。
6/13/2025 8:53:00 AM

CVPR 2025 多模态大一统:斯坦福 x 复旦提出符号主义建模生成式任务

共同第一作者包括:陈家棋,斯坦福大学访问学者,复旦大学硕士,研究方向为 LLM Agent和大一统模型;朱小烨,华南理工大学本科,研究方向为 LLM Agent、LLM 和强化学习;王越,康奈尔大学本科,研究方向为 LLM Agent、多模态语言模型。 指导老师:Julian McAuley(UCSD)、Li-jia Li (IEEE Fellow, LiveX AI)。 在人工智能内容创作蓬勃发展的今天,跨模态生成技术正在重塑艺术创作和视觉表达的边界。
6/13/2025 8:46:00 AM

CVPR 2025 | 多模态统一学习新范式来了,数据、模型、代码全部开源

本文第一作者杜恒辉为中国人民大学二年级硕士生,主要研究方向为多模态大模型视听场景理解与推理,长视频理解等,师从胡迪副教授。 作者来自于中国人民大学,清华大学和北京腾讯 PCG AI 技术中心。 我们人类生活在一个充满视觉和音频信息的世界中,近年来已经有很多工作利用这两个模态的信息来增强模型对视听场景的理解能力,衍生出了多种不同类型的任务,它们分别要求模型具备不同层面的能力。
6/13/2025 8:45:00 AM

断供竞品前,Claude早已联手Cursor?共创播客曝光:AI编程瓶颈在代码检查!CTO揭秘如何用Cursor开发Cursor

编译 | 伊风事情的发展越来越有趣了。 Anthropic 在断供 WindSurf 模型接入时公开表态:把 Claude 卖给 OpenAI 的产品,确实“感觉很怪”。 这番话,让不少用户直接为 WindSurf 判了“技术死刑”。
6/13/2025 8:44:37 AM
伊风

OpenAI 正式发布 o3-Pro 模型

近日,OpenAI 发布了两项重磅更新:一是将 o3 模型的价格下调 80%;二是推出了全新的 o3-Pro 模型。 o3-Pro 是目前 OpenAI 最强大的多模态推理模型,擅长分步思考,在编码、数学、科学、视觉感知等领域表现尤为出色,能够提供更可靠、更深入的推理能力。 o3 系列与 GPT-4 系列的区别GPT-4.x:支持文本与图片,但缺乏深度推理能力GPT-4o:在 GPT-4.x 基础上新增音频处理功能,“o” 即“omni”全能o3 / o3-Pro:专注于多模态推理的“思考型”模型,主要以文本推理为主,图像支持有限;o3-Pro 在此基础上投入更多算力,思考更充分,输出质量更高这些推理型模型可配合 ChatGPT 的全套工具——从网页搜索、文件分析(包括 Python 运行)、视觉输入判断,到部分场景下的图像生成,皆能灵活调用。
6/13/2025 8:11:11 AM
前端小智

驯服AI幻觉:通过人在循环(HITL)测试减轻AI应用中的幻觉

译者 | 晶颜审校 | 重楼引言人工智能展现出的“自信表达”,实则暗藏风险。 随着生成式人工智能解决方案在医疗、金融、法律、零售、教育等诸多领域广泛应用,自动化的强大吸引力令企业纷纷加速将大型语言模型整合至客户支持、医疗保健、法律及金融等应用场景之中。 然而,在此过程中,一个潜在的隐患——人工智能幻觉问题,正悄然潜伏于每一次指令交互背后。
6/13/2025 8:06:41 AM
晶颜

如何在五分钟内免费做成宝宝播客?

译者 | 布加迪审校 | 重楼你和我一样是社交达人吗? 总是在寻找新的潮流和吸引观众的创新方式? 如果是的话,那么你来对地方了。
6/13/2025 7:58:58 AM
布加迪

特斯拉起诉前 Optimus 机器人工程师,指控其窃取商业机密

根据诉状,他于2022年8月加入特斯拉,并于2024年9月离职。在此期间,他曾使用两部个人手机下载Optimus相关的机密资料。
6/13/2025 7:16:25 AM
清源

arXiv 2025 | 无需增参!加权卷积wConv2D助力分类去噪双提升,传统CNN焕然一新!

一眼概览本文提出了一种无需增加参数的加权卷积算子,通过引入空间密度函数显著提升CNN在图像分类与去噪任务中的性能表现。 核心问题传统卷积操作默认局部邻域内的像素等权贡献,忽视其空间位置差异,这限制了模型对空间特征的刻画能力。 该研究旨在解决如何在不增加模型参数的前提下,使卷积操作能够自适应地感知像素间的空间结构,从而提升图像分类与去噪性能。
6/13/2025 4:12:00 AM
萍哥学AI

2025上半年大模型领域盘点:创新与争议交织前行

随着大模型的快速迭代,该技术不仅成为了驱动科技发展的重要动力,同时也是推动社会各领域智能化转型的关键力量。 2025年上半年,大模型领域迎来了快速发展与变革。 从DeepSeek发布其推理大模型R1,到百度宣布大模型开源,再到多家厂商纷纷推出大模型一体机,这些事件共同推动了大模型技术在硬件解决方案上的显著进步。
6/13/2025 3:30:00 AM
Yu

AI 智能体到底应该如何构建?分享 Github 上收获 4k stars 的 12 条原则

1.AI Agent 是如何走到今天的1.1 我的观点仅供参考无论您是智能体领域的新手,还是像我这样固执的老兵,我都将试图说服您摒弃对 AI Agent 的大部分固有认知,退一步,从第一性原理(first principles)出发重新思考它们。 (如果你错过了不久前 OpenAI 发布的内容,这里有个剧透预警:把更多智能体逻辑塞进 API 后面并非正解)2.智能体本质上是软件,让我们简要追溯其发展历程让我们回溯智能体的发展脉络。 2.1 60 年前这个阶段重点探讨的是有向图(DGs)及其无环版本 —— 有向无环图(DAGs)。
6/13/2025 3:11:00 AM
BaihaiI DP

OpenAI 奥尔特曼宣布将使用 AMD 的 MI300X 和 MI450 AI 芯片,苏姿丰首次透露 MI500

在今日凌晨的 AMD Advancing AI 2025 活动尾声,OpenAI 首席执行官萨姆・奥尔特曼(Sam Altman)惊喜登台。
6/13/2025 3:02:19 AM
汪淼

深度学习中Batch Size对训练过程如何影响?

之前面试过程中被问到过两个问题:(1)深度学习中batch size的大小对训练过程的影响是什么样的? (2)有些时候不可避免地要用超大batch,比如人脸识别,可能每个batch要有几万甚至几十万张人脸图像,训练过程中超大batch有什么优缺点,如何尽可能地避免超大batch带来的负面影响? 面试版回答在不考虑Batch Normalization的情况下(这种情况我们之后会在bn的文章里专门探讨),先给个自己当时回答的答案吧(相对来说学究一点):(1) 不考虑bn的情况下,batch size的大小决定了深度学习训练过程中的完成每个epoch所需的时间和每次迭代(iteration)之间梯度的平滑程度。
6/13/2025 2:55:00 AM
grok