AI在线 AI在线

理论

首个统一的图像与视频AIGC可解释性检测框架,多榜单SOTA性能

想象一下:你正在浏览社交媒体,看到一张震撼的图片或一段令人震撼的视频。 它栩栩如生,细节丰富,让你不禁信以为真。 但它究竟是真实记录,还是由顶尖 AI 精心炮制的「杰作」?
6/16/2025 8:51:00 AM

突破125年世纪难题!北大校友联手科大少年班才子破解希尔伯特第六问题

1900年,数学大师希尔伯特提出23个数学难题,其中第六个问题——“物理学的公理化”,被称为数学物理的终极挑战。 125年后,北大校友邓煜、中科大少年班马骁与陶哲轩高徒扎赫尔・哈尼终于在这一问题上取得重大突破。 在20世纪,关于第六问题,希尔伯特追问:能否像欧几里得几何一样,为物理学构建严格的数学基础?
6/16/2025 8:49:00 AM

苹果《思考的错觉》再挨批,Claude与人类共著论文指出其三大关键缺陷

几天前,苹果一篇《思考的错觉》论文吸睛无数又争议不断,其中研究了当今「推理模型」究竟真正能否「推理」的问题,而这里的结论是否定的。 论文中写到:「我们的研究表明,最先进的 LRM(例如 o3-mini、DeepSeek-R1、Claude-3.7-Sonnet-Thinking)仍然未能发展出可泛化的解决问题能力 —— 在不同环境中,当达到一定复杂度时,准确度最终会崩溃至零。 」不过,这篇论文的研究方法也受到了不少质疑,比如我们的一位读者就认为「给数学题题干加无关内容,发现大模型更容易答错,而质疑大模型不会推理」的做法并不十分合理。
6/16/2025 8:48:00 AM

LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?

近段时间,关于 AI 自我演进/进化这一话题的研究和讨论开始变得愈渐密集。 本月初我们就曾梳理报道了一些,包括 Sakana AI 与不列颠哥伦比亚大学等机构合作的「达尔文-哥德尔机(DGM)」、CMU 的「自我奖励训练(SRT)」、上海交通大学等机构提出的多模态大模型的持续自我改进框架「MM-UPT」、香港中文大学联合 vivo 等机构的自改进框架「UI-Genie」。 那之后,相关研究依然还在不断涌现,以下拼图展示了一些例子:而前些天,OpenAI CEO、著名 𝕏 大 v 山姆・奥特曼在其博客《温和的奇点(The Gentle Singularity)》中更是畅想了一个 AI/智能机器人实现自我改进后的未来。
6/16/2025 8:46:00 AM

多智能体在「燃烧」Token!Anthropic公开发现的一切

「Anthropic 发布了他们如何使用多个 Claude AI 智能体构建多智能体研究系统的精彩解释。 对于任何构建多智能体系统的人来说,这是一本必读的指南。 」刚刚,X 知名博主 Rohan Paul 强力推荐了 Anthropic 一项新研究。
6/16/2025 8:39:00 AM

复旦大学/上海创智学院邱锡鹏:Context Scaling,通往AGI的下一幕

2024 年底,Ilya Sutskever 断言「我们所知的预训练时代即将终结」,让整个人工智能领域陷入对 Scaling What 的集体追问之中。 新的思路不断涌现:推理时扩展(Test-Time Scaling)让 OpenAI 的 o 系列在数学推理上大放异彩,DeepSeek-R1 通过 GRPO 替代 PPO 实现了强化学习的突破,强化学习 Self-play LLM 让 AI 在游戏和代码生成中展现惊人能力,Agent 化路径则催生了能够操作浏览器、调用工具的新一代智能助理…… 每一条路都在探寻可能的下一个跃迁。 在这场技术探讨中,复旦大学 / 上海创智学院的邱锡鹏教授提出了一个耐人寻味的新路径 ——Context Scaling。
6/16/2025 8:33:00 AM

AI自己给自己当网管,实现安全“顿悟时刻”,风险率直降9.6%

大型推理模型(LRMs)在解决复杂任务时展现出的强大能力令人惊叹,但其背后隐藏的安全风险不容忽视。 尽管学术界已尝试通过监督微调(SFT)有效地提升模型安全,但下图的测试结果所示,监督微调在面对训练数据领域外的层出不穷的“越狱”攻击时,往往显得捉襟见肘,泛化能力有限。 同时,之前的工作没有对大型推理模型的安全思考做深入的分析,以进行针对性的提升。
6/16/2025 8:25:00 AM

如何在本地运行量化版的DeepSeek-R1-0528?

译者 | 布加迪审校 | 重楼DeepSeek-R1-0528是DeepSeek R1 推理模型的最新版本,需要715GB的磁盘空间,使其成为市面上最大的开源模型之一。 然而由于来自Unsloth 的先进的量化技术,该模型的大小可以缩减至162GB,整整缩减了80%。 这使得用户能够以显著降低的硬件要求体验模型的全部功能,尽管性能略有下降。
6/16/2025 8:11:47 AM
布加迪

别让千亿参数成摆设!万字解读LLM应用的生存法则

现在大家都在聊大模型,动不动就说什么“智能涌现”、“颠覆行业”。 但说实话,真正能把大模型用好的,不是谁喊得响,而是看谁的系统设计够硬核! 什么是大模型应用系统设计?
6/16/2025 8:06:51 AM
曹洪伟

使用FastAPI和Redis缓存加速机器学习模型服务

译者 | 李睿审校 | 重楼本文介绍了如何使用FastAPI和Redis缓存加速机器学习模型服务。 FastAPI作为高性能Web框架用于构建API,Redis作为内存中的数据结构存储系统作为缓存层。 通过集成FastAPI和Redis,系统能快速响应重复请求,避免冗余计算,显著降低延迟和CPU负载。
6/16/2025 7:55:29 AM
李睿

放弃博士学位加入OpenAI,他要为ChatGPT和AGI引入记忆与人格

今天,一位研究者加入 OpenAI 的消息吸引了很多人的关注。 这位研究者名为 James Campbell,他才于 2024 年攻读 CMU 的计算机科学博士学位。 现在,他突然宣布要放弃博士学业,加入 OpenAI。
6/16/2025 7:50:00 AM
机器之心

AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字

在进入本文之前,我们先来玩个 10 秒小游戏:在心里选一个「1-10」的整数。 现在设想我问:「你想的是 5 吗? 」如果听到是自己的数字,你会本能地答 Yes,其余统统 No。
6/16/2025 6:00:00 AM
机器之心

八个几乎能替代一整个开发团队的AI工具

前言大家好,我是林三心,用最通俗易懂的话讲最难的知识点是我的座右铭,基础是进阶的前提是我的初心~一、代码生产维度的范式转移1. GitHub Copilot X(智能编程协作者)图片能力进化: 从代码补全到全栈架构建议,最新X版本可理解项目上下文进行智能重构案例实测: 在开发REST API时,自动生成符合OpenAPI规范的完整端点代码,节省65%编码时间不可替代性: 保留核心算法设计权的同时,将重复劳动压缩70%2. Replit Ghostwriter(云端智造引擎)图片突破性优势: 环境配置时间归零,支持50 语言实时协作实战场景: 快速验证区块链智能合约时,5分钟完成从构思到测试部署的全流程数据背书: 2024年独立开发者调研显示,使用该工具的原型验证速度提升400%二、产品设计链路的智能跃迁3.
6/16/2025 5:10:00 AM
林三心不学挖掘机

越脏越安全?哈佛团队研究:10%毒性训练让大模型百毒不侵

最近,一项关于 4chan 的“毒性”实验颠覆了 AI 社区的集体直觉:        ——原来,适度地喂模型吃“毒”,反而能让它更容易“解毒”。 长期以来,大模型训练的默认路线是“干净数据优先”。 OpenAI、Anthropic、Google DeepMind 等公司,都花费巨资雇佣标注团队,把网络文本里的暴力、歧视、骚扰言论清洗得一干二净——因为没人愿意让自己的模型变成“种族主义诗人”或“厌女主义讲师”。
6/16/2025 3:00:00 AM

迈向人工智能的认识论:真的没有人真正了解大型语言模型 (LLM) 的黑箱运作方式吗

如果大型语言模型能够推理,但没有人能够看到它是如何推理的,那么它真的在思考吗? 简而言之,像 GPT-4 这样的大型语言模型 (LLM) 展现出卓越的能力,但其运作方式却如同“黑匣子”,这意味着它们的内部决策过程在很大程度上是不透明的,甚至对其创建者而言也是如此。 本系列文章综合了近期关于 LLM 可解释性的研究,重点关注这些模型的推理方式、其解释的可靠性(思维链)以及对安全性和部署的影响。
6/16/2025 2:30:00 AM
晓晓

狂砸143亿,小扎挖来Meta自己的“奥特曼”?曝光神秘挖角名单:年薪千万刀,扎克伯格亲自发出“令人心动的 offer”!

最近,Meta抢人的料真是挺猛的。 先是重金砸向数据独角兽 Scale AI,投资高达 143 亿美元,直接把 CEO Alexandr Wang 挖来,挂帅“超级智能实验室”。 Alexandr就这么离开了自己的初创公司,他在 X 上写道: “你们可能已经从最近的新闻中了解到,像这样级别的机会,往往意味着必须做出牺牲。
6/16/2025 2:25:00 AM
伊风

Text2SQL案例演示:信贷风控策略场景(Coze工作流版)

半个月前,知识星球中有个关于 text2sql 的讨论,后续又陆续有成员私信沟通。 这篇节取了个目前手头项目的 MVP (最小可行化)版本,来和各位做个分享交流,也希望听到来自不同场景的最佳实践。 这篇试图说清楚:信贷风控策略迭代场景的标准流程、Text2SQL 三类技术方案,MVP 版本的 Coze text2sql 工作流,以及对人机协同的一些碎片思考。
6/16/2025 2:00:00 AM
韦东东

我用这两个提示在 ChatGPT 中创建了 7 万多个提示

当发现越来越多的人喜欢自己的提示时,便萌生了产出更多高品质提示的想法。 为了深入了解他人都在设计哪些提示,不得不上网搜索各种示例和灵感。 最终,灵光一现:为何不先定义一组“超大角色提示”模板,再配套一套“后续跟进提示”模板,以此批量生成所需内容?
6/16/2025 1:33:00 AM
前端小智