AI在线 AI在线

AI

AI ASMR突然火爆全网!3天狂揽近10万粉丝,一条切水果视频播放量破1650万

AI ASMR突然火爆全网!3天狂揽近10万粉丝,一条切水果视频播放量破1650万

短视频平台熬夜冲浪的我突然发现,AI ASMR突然火了? ! 大家可以打开声音欣赏一下这条切割浆果的视频,它拿下了16500000的浏览量。
6/16/2025 8:54:00 AM
谢赛宁敲响学界警钟!AI研究可能陷入一场注定失败的有限游戏

谢赛宁敲响学界警钟!AI研究可能陷入一场注定失败的有限游戏

凌晨三点的 AI 实验室,键盘敲击声在空荡的房间回响。 屏幕上,博士生小王、小李、小赵正疯狂调整模型参数,只为在 NeurIPS 截稿前将准确率从 98.2% 刷到 98.5%。 这样的场景,在如今的 AI 学术圈早已见怪不怪。
6/16/2025 8:53:00 AM
首个统一的图像与视频AIGC可解释性检测框架,多榜单SOTA性能

首个统一的图像与视频AIGC可解释性检测框架,多榜单SOTA性能

想象一下:你正在浏览社交媒体,看到一张震撼的图片或一段令人震撼的视频。 它栩栩如生,细节丰富,让你不禁信以为真。 但它究竟是真实记录,还是由顶尖 AI 精心炮制的「杰作」?
6/16/2025 8:51:00 AM
突破125年世纪难题!北大校友联手科大少年班才子破解希尔伯特第六问题

突破125年世纪难题!北大校友联手科大少年班才子破解希尔伯特第六问题

1900年,数学大师希尔伯特提出23个数学难题,其中第六个问题——“物理学的公理化”,被称为数学物理的终极挑战。 125年后,北大校友邓煜、中科大少年班马骁与陶哲轩高徒扎赫尔・哈尼终于在这一问题上取得重大突破。 在20世纪,关于第六问题,希尔伯特追问:能否像欧几里得几何一样,为物理学构建严格的数学基础?
6/16/2025 8:49:00 AM
LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?

LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?

近段时间,关于 AI 自我演进/进化这一话题的研究和讨论开始变得愈渐密集。 本月初我们就曾梳理报道了一些,包括 Sakana AI 与不列颠哥伦比亚大学等机构合作的「达尔文-哥德尔机(DGM)」、CMU 的「自我奖励训练(SRT)」、上海交通大学等机构提出的多模态大模型的持续自我改进框架「MM-UPT」、香港中文大学联合 vivo 等机构的自改进框架「UI-Genie」。 那之后,相关研究依然还在不断涌现,以下拼图展示了一些例子:而前些天,OpenAI CEO、著名 𝕏 大 v 山姆・奥特曼在其博客《温和的奇点(The Gentle Singularity)》中更是畅想了一个 AI/智能机器人实现自我改进后的未来。
6/16/2025 8:46:00 AM
多智能体在「燃烧」Token!Anthropic公开发现的一切

多智能体在「燃烧」Token!Anthropic公开发现的一切

「Anthropic 发布了他们如何使用多个 Claude AI 智能体构建多智能体研究系统的精彩解释。 对于任何构建多智能体系统的人来说,这是一本必读的指南。 」刚刚,X 知名博主 Rohan Paul 强力推荐了 Anthropic 一项新研究。
6/16/2025 8:39:00 AM
AI自己给自己当网管,实现安全“顿悟时刻”,风险率直降9.6%

AI自己给自己当网管,实现安全“顿悟时刻”,风险率直降9.6%

大型推理模型(LRMs)在解决复杂任务时展现出的强大能力令人惊叹,但其背后隐藏的安全风险不容忽视。 尽管学术界已尝试通过监督微调(SFT)有效地提升模型安全,但下图的测试结果所示,监督微调在面对训练数据领域外的层出不穷的“越狱”攻击时,往往显得捉襟见肘,泛化能力有限。 同时,之前的工作没有对大型推理模型的安全思考做深入的分析,以进行针对性的提升。
6/16/2025 8:25:00 AM
放弃博士学位加入OpenAI,他要为ChatGPT和AGI引入记忆与人格

放弃博士学位加入OpenAI,他要为ChatGPT和AGI引入记忆与人格

今天,一位研究者加入 OpenAI 的消息吸引了很多人的关注。 这位研究者名为 James Campbell,他才于 2024 年攻读 CMU 的计算机科学博士学位。 现在,他突然宣布要放弃博士学业,加入 OpenAI。
6/16/2025 7:50:00 AM 机器之心
AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字

AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字

在进入本文之前,我们先来玩个 10 秒小游戏:在心里选一个「1-10」的整数。 现在设想我问:「你想的是 5 吗? 」如果听到是自己的数字,你会本能地答 Yes,其余统统 No。
6/16/2025 6:00:00 AM 机器之心
八个几乎能替代一整个开发团队的AI工具

八个几乎能替代一整个开发团队的AI工具

前言大家好,我是林三心,用最通俗易懂的话讲最难的知识点是我的座右铭,基础是进阶的前提是我的初心~一、代码生产维度的范式转移1. GitHub Copilot X(智能编程协作者)图片能力进化: 从代码补全到全栈架构建议,最新X版本可理解项目上下文进行智能重构案例实测: 在开发REST API时,自动生成符合OpenAPI规范的完整端点代码,节省65%编码时间不可替代性: 保留核心算法设计权的同时,将重复劳动压缩70%2. Replit Ghostwriter(云端智造引擎)图片突破性优势: 环境配置时间归零,支持50 语言实时协作实战场景: 快速验证区块链智能合约时,5分钟完成从构思到测试部署的全流程数据背书: 2024年独立开发者调研显示,使用该工具的原型验证速度提升400%二、产品设计链路的智能跃迁3.
6/16/2025 5:10:00 AM 林三心不学挖掘机
越脏越安全?哈佛团队研究:10%毒性训练让大模型百毒不侵

越脏越安全?哈佛团队研究:10%毒性训练让大模型百毒不侵

最近,一项关于 4chan 的“毒性”实验颠覆了 AI 社区的集体直觉:        ——原来,适度地喂模型吃“毒”,反而能让它更容易“解毒”。 长期以来,大模型训练的默认路线是“干净数据优先”。 OpenAI、Anthropic、Google DeepMind 等公司,都花费巨资雇佣标注团队,把网络文本里的暴力、歧视、骚扰言论清洗得一干二净——因为没人愿意让自己的模型变成“种族主义诗人”或“厌女主义讲师”。
6/16/2025 3:00:00 AM
迈向人工智能的认识论:真的没有人真正了解大型语言模型 (LLM) 的黑箱运作方式吗

迈向人工智能的认识论:真的没有人真正了解大型语言模型 (LLM) 的黑箱运作方式吗

如果大型语言模型能够推理,但没有人能够看到它是如何推理的,那么它真的在思考吗? 简而言之,像 GPT-4 这样的大型语言模型 (LLM) 展现出卓越的能力,但其运作方式却如同“黑匣子”,这意味着它们的内部决策过程在很大程度上是不透明的,甚至对其创建者而言也是如此。 本系列文章综合了近期关于 LLM 可解释性的研究,重点关注这些模型的推理方式、其解释的可靠性(思维链)以及对安全性和部署的影响。
6/16/2025 2:30:00 AM 晓晓
狂砸143亿,小扎挖来Meta自己的“奥特曼”?曝光神秘挖角名单:年薪千万刀,扎克伯格亲自发出“令人心动的 offer”!

狂砸143亿,小扎挖来Meta自己的“奥特曼”?曝光神秘挖角名单:年薪千万刀,扎克伯格亲自发出“令人心动的 offer”!

最近,Meta抢人的料真是挺猛的。 先是重金砸向数据独角兽 Scale AI,投资高达 143 亿美元,直接把 CEO Alexandr Wang 挖来,挂帅“超级智能实验室”。 Alexandr就这么离开了自己的初创公司,他在 X 上写道: “你们可能已经从最近的新闻中了解到,像这样级别的机会,往往意味着必须做出牺牲。
6/16/2025 2:25:00 AM 伊风
5000次风暴,谷歌训出AI预言家!天气预报ChatGPT时刻?

5000次风暴,谷歌训出AI预言家!天气预报ChatGPT时刻?

昨天,谷歌DeepMind与谷歌研究团队正式推出交互式气象平台Weather Lab,用于共享人工智能天气模型。 图片在热带气旋路径预测方面,谷歌这次的新模型刷新SOTA,是首个在性能上明确超越主流物理模型的AI预测模型。 图片论文链接:::,所经之处,徒留废墟。
6/13/2025 4:02:04 PM 新智元
Transformer八周年!Attention Is All You Need被引破18万封神

Transformer八周年!Attention Is All You Need被引破18万封神

Transformer,八岁了! 开创如今这场生成式AI革命的论文《Attention Is All You Need》迎来了第8个年头。 Transformer催生了ChatGPT、Gemini、Claude等诸多前沿产品。
6/13/2025 3:59:48 PM
AGI真方向?谷歌证明:智能体在自研世界模型,世界模型is all You Need

AGI真方向?谷歌证明:智能体在自研世界模型,世界模型is all You Need

我们知道,大模型技术爆发的原点可能在谷歌一篇名为《Attention is All You Need》的论文上。 如今,在通用人工智能(AGI)初现曙光,Scaling Laws 却疑似接近极限的当口,又是谷歌对未来方向进行了一番思考,想来想去还是只有五个词:论文标题:General agents need world models论文链接: ICML 收录。 他们发现:如果一个 AI 智能体能够处理复杂的、长期的任务,那么它一定学习过一个内部世界模型——我们甚至可以通过观察智能体的行为来提取它。
6/13/2025 2:27:05 PM
程序员从此不再写代码!红杉专访Codex团队,o3白菜价真相曝光

程序员从此不再写代码!红杉专访Codex团队,o3白菜价真相曝光

未来的AI Coding会是什么样子? Copilot、Cursor、Windsurf还是Claude Code? 都不是!
6/13/2025 2:22:04 PM
1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版

1200行代码逆袭!DeepSeek工程师开源轻量级vLLM,吞吐量逼近原版

开源社区的人应该对 vLLM 不陌生,它是一个由加州大学伯克利分校团队开发的高性能、开源 LLM 推理和服务引擎,核心目标是提升 LLM 的推理速度(吞吐量)和资源利用率(尤其是内存),同时兼容 Hugging Face 等流行模型库。 简单来说,vLLM 能让 GPT、Mistral、LLaMA 等主流模型系列跑得更快、消耗更少资源,取得这些效果的关键是其创新的注意力机制实现方案 ——PagedAttention。 近日,DeepSeek AI 研究者、深度学习系统工程师俞星凯从零开始构建了一个轻量级 vLLM 实现 ——Nano-vLLM,将代码简化到了 1200 行。
6/13/2025 2:16:37 PM