理论
首个统一的图像与视频AIGC可解释性检测框架,多榜单SOTA性能
想象一下:你正在浏览社交媒体,看到一张震撼的图片或一段令人震撼的视频。 它栩栩如生,细节丰富,让你不禁信以为真。 但它究竟是真实记录,还是由顶尖 AI 精心炮制的「杰作」?
6/16/2025 8:51:00 AM
突破125年世纪难题!北大校友联手科大少年班才子破解希尔伯特第六问题
1900年,数学大师希尔伯特提出23个数学难题,其中第六个问题——“物理学的公理化”,被称为数学物理的终极挑战。 125年后,北大校友邓煜、中科大少年班马骁与陶哲轩高徒扎赫尔・哈尼终于在这一问题上取得重大突破。 在20世纪,关于第六问题,希尔伯特追问:能否像欧几里得几何一样,为物理学构建严格的数学基础?
6/16/2025 8:49:00 AM
苹果《思考的错觉》再挨批,Claude与人类共著论文指出其三大关键缺陷
几天前,苹果一篇《思考的错觉》论文吸睛无数又争议不断,其中研究了当今「推理模型」究竟真正能否「推理」的问题,而这里的结论是否定的。 论文中写到:「我们的研究表明,最先进的 LRM(例如 o3-mini、DeepSeek-R1、Claude-3.7-Sonnet-Thinking)仍然未能发展出可泛化的解决问题能力 —— 在不同环境中,当达到一定复杂度时,准确度最终会崩溃至零。 」不过,这篇论文的研究方法也受到了不少质疑,比如我们的一位读者就认为「给数学题题干加无关内容,发现大模型更容易答错,而质疑大模型不会推理」的做法并不十分合理。
6/16/2025 8:48:00 AM
LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?
近段时间,关于 AI 自我演进/进化这一话题的研究和讨论开始变得愈渐密集。 本月初我们就曾梳理报道了一些,包括 Sakana AI 与不列颠哥伦比亚大学等机构合作的「达尔文-哥德尔机(DGM)」、CMU 的「自我奖励训练(SRT)」、上海交通大学等机构提出的多模态大模型的持续自我改进框架「MM-UPT」、香港中文大学联合 vivo 等机构的自改进框架「UI-Genie」。 那之后,相关研究依然还在不断涌现,以下拼图展示了一些例子:而前些天,OpenAI CEO、著名 𝕏 大 v 山姆・奥特曼在其博客《温和的奇点(The Gentle Singularity)》中更是畅想了一个 AI/智能机器人实现自我改进后的未来。
6/16/2025 8:46:00 AM
多智能体在「燃烧」Token!Anthropic公开发现的一切
「Anthropic 发布了他们如何使用多个 Claude AI 智能体构建多智能体研究系统的精彩解释。 对于任何构建多智能体系统的人来说,这是一本必读的指南。 」刚刚,X 知名博主 Rohan Paul 强力推荐了 Anthropic 一项新研究。
6/16/2025 8:39:00 AM
复旦大学/上海创智学院邱锡鹏:Context Scaling,通往AGI的下一幕
2024 年底,Ilya Sutskever 断言「我们所知的预训练时代即将终结」,让整个人工智能领域陷入对 Scaling What 的集体追问之中。 新的思路不断涌现:推理时扩展(Test-Time Scaling)让 OpenAI 的 o 系列在数学推理上大放异彩,DeepSeek-R1 通过 GRPO 替代 PPO 实现了强化学习的突破,强化学习 Self-play LLM 让 AI 在游戏和代码生成中展现惊人能力,Agent 化路径则催生了能够操作浏览器、调用工具的新一代智能助理…… 每一条路都在探寻可能的下一个跃迁。 在这场技术探讨中,复旦大学 / 上海创智学院的邱锡鹏教授提出了一个耐人寻味的新路径 ——Context Scaling。
6/16/2025 8:33:00 AM
AI自己给自己当网管,实现安全“顿悟时刻”,风险率直降9.6%
大型推理模型(LRMs)在解决复杂任务时展现出的强大能力令人惊叹,但其背后隐藏的安全风险不容忽视。 尽管学术界已尝试通过监督微调(SFT)有效地提升模型安全,但下图的测试结果所示,监督微调在面对训练数据领域外的层出不穷的“越狱”攻击时,往往显得捉襟见肘,泛化能力有限。 同时,之前的工作没有对大型推理模型的安全思考做深入的分析,以进行针对性的提升。
6/16/2025 8:25:00 AM
如何在本地运行量化版的DeepSeek-R1-0528?
译者 | 布加迪审校 | 重楼DeepSeek-R1-0528是DeepSeek R1 推理模型的最新版本,需要715GB的磁盘空间,使其成为市面上最大的开源模型之一。 然而由于来自Unsloth 的先进的量化技术,该模型的大小可以缩减至162GB,整整缩减了80%。 这使得用户能够以显著降低的硬件要求体验模型的全部功能,尽管性能略有下降。
6/16/2025 8:11:47 AM
布加迪
别让千亿参数成摆设!万字解读LLM应用的生存法则
现在大家都在聊大模型,动不动就说什么“智能涌现”、“颠覆行业”。 但说实话,真正能把大模型用好的,不是谁喊得响,而是看谁的系统设计够硬核! 什么是大模型应用系统设计?
6/16/2025 8:06:51 AM
曹洪伟
使用FastAPI和Redis缓存加速机器学习模型服务
译者 | 李睿审校 | 重楼本文介绍了如何使用FastAPI和Redis缓存加速机器学习模型服务。 FastAPI作为高性能Web框架用于构建API,Redis作为内存中的数据结构存储系统作为缓存层。 通过集成FastAPI和Redis,系统能快速响应重复请求,避免冗余计算,显著降低延迟和CPU负载。
6/16/2025 7:55:29 AM
李睿
放弃博士学位加入OpenAI,他要为ChatGPT和AGI引入记忆与人格
今天,一位研究者加入 OpenAI 的消息吸引了很多人的关注。 这位研究者名为 James Campbell,他才于 2024 年攻读 CMU 的计算机科学博士学位。 现在,他突然宣布要放弃博士学业,加入 OpenAI。
6/16/2025 7:50:00 AM
机器之心
AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字
在进入本文之前,我们先来玩个 10 秒小游戏:在心里选一个「1-10」的整数。 现在设想我问:「你想的是 5 吗? 」如果听到是自己的数字,你会本能地答 Yes,其余统统 No。
6/16/2025 6:00:00 AM
机器之心
八个几乎能替代一整个开发团队的AI工具
前言大家好,我是林三心,用最通俗易懂的话讲最难的知识点是我的座右铭,基础是进阶的前提是我的初心~一、代码生产维度的范式转移1. GitHub Copilot X(智能编程协作者)图片能力进化: 从代码补全到全栈架构建议,最新X版本可理解项目上下文进行智能重构案例实测: 在开发REST API时,自动生成符合OpenAPI规范的完整端点代码,节省65%编码时间不可替代性: 保留核心算法设计权的同时,将重复劳动压缩70%2. Replit Ghostwriter(云端智造引擎)图片突破性优势: 环境配置时间归零,支持50 语言实时协作实战场景: 快速验证区块链智能合约时,5分钟完成从构思到测试部署的全流程数据背书: 2024年独立开发者调研显示,使用该工具的原型验证速度提升400%二、产品设计链路的智能跃迁3.
6/16/2025 5:10:00 AM
林三心不学挖掘机
越脏越安全?哈佛团队研究:10%毒性训练让大模型百毒不侵
最近,一项关于 4chan 的“毒性”实验颠覆了 AI 社区的集体直觉: ——原来,适度地喂模型吃“毒”,反而能让它更容易“解毒”。 长期以来,大模型训练的默认路线是“干净数据优先”。 OpenAI、Anthropic、Google DeepMind 等公司,都花费巨资雇佣标注团队,把网络文本里的暴力、歧视、骚扰言论清洗得一干二净——因为没人愿意让自己的模型变成“种族主义诗人”或“厌女主义讲师”。
6/16/2025 3:00:00 AM
迈向人工智能的认识论:真的没有人真正了解大型语言模型 (LLM) 的黑箱运作方式吗
如果大型语言模型能够推理,但没有人能够看到它是如何推理的,那么它真的在思考吗? 简而言之,像 GPT-4 这样的大型语言模型 (LLM) 展现出卓越的能力,但其运作方式却如同“黑匣子”,这意味着它们的内部决策过程在很大程度上是不透明的,甚至对其创建者而言也是如此。 本系列文章综合了近期关于 LLM 可解释性的研究,重点关注这些模型的推理方式、其解释的可靠性(思维链)以及对安全性和部署的影响。
6/16/2025 2:30:00 AM
晓晓
狂砸143亿,小扎挖来Meta自己的“奥特曼”?曝光神秘挖角名单:年薪千万刀,扎克伯格亲自发出“令人心动的 offer”!
最近,Meta抢人的料真是挺猛的。 先是重金砸向数据独角兽 Scale AI,投资高达 143 亿美元,直接把 CEO Alexandr Wang 挖来,挂帅“超级智能实验室”。 Alexandr就这么离开了自己的初创公司,他在 X 上写道: “你们可能已经从最近的新闻中了解到,像这样级别的机会,往往意味着必须做出牺牲。
6/16/2025 2:25:00 AM
伊风
Text2SQL案例演示:信贷风控策略场景(Coze工作流版)
半个月前,知识星球中有个关于 text2sql 的讨论,后续又陆续有成员私信沟通。 这篇节取了个目前手头项目的 MVP (最小可行化)版本,来和各位做个分享交流,也希望听到来自不同场景的最佳实践。 这篇试图说清楚:信贷风控策略迭代场景的标准流程、Text2SQL 三类技术方案,MVP 版本的 Coze text2sql 工作流,以及对人机协同的一些碎片思考。
6/16/2025 2:00:00 AM
韦东东
我用这两个提示在 ChatGPT 中创建了 7 万多个提示
当发现越来越多的人喜欢自己的提示时,便萌生了产出更多高品质提示的想法。 为了深入了解他人都在设计哪些提示,不得不上网搜索各种示例和灵感。 最终,灵光一现:为何不先定义一组“超大角色提示”模板,再配套一套“后续跟进提示”模板,以此批量生成所需内容?
6/16/2025 1:33:00 AM
前端小智
资讯热榜
标签云
人工智能
AI
OpenAI
AIGC
模型
ChatGPT
DeepSeek
AI绘画
谷歌
机器人
数据
大模型
Midjourney
开源
智能
用户
Meta
微软
GPT
学习
技术
图像
Gemini
AI创作
马斯克
论文
英伟达
Anthropic
智能体
代码
算法
Stable Diffusion
训练
芯片
开发者
蛋白质
腾讯
生成式
苹果
LLM
神经网络
AI新词
Claude
3D
研究
生成
机器学习
AI for Science
xAI
计算
人形机器人
Sora
Agent
AI视频
GPU
百度
AI设计
华为
搜索
大语言模型
工具
场景
字节跳动
RAG
大型语言模型
预测
具身智能
深度学习
伟达
视觉
Transformer
神器推荐
AGI
亚马逊
视频生成
Copilot
DeepMind
模态
架构
LLaMA