理论
LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?
近段时间,关于 AI 自我演进/进化这一话题的研究和讨论开始变得愈渐密集。 本月初我们就曾梳理报道了一些,包括 Sakana AI 与不列颠哥伦比亚大学等机构合作的「达尔文-哥德尔机(DGM)」、CMU 的「自我奖励训练(SRT)」、上海交通大学等机构提出的多模态大模型的持续自我改进框架「MM-UPT」、香港中文大学联合 vivo 等机构的自改进框架「UI-Genie」。 那之后,相关研究依然还在不断涌现,以下拼图展示了一些例子:而前些天,OpenAI CEO、著名 𝕏 大 v 山姆・奥特曼在其博客《温和的奇点(The Gentle Singularity)》中更是畅想了一个 AI/智能机器人实现自我改进后的未来。
6/16/2025 8:46:00 AM
多智能体在「燃烧」Token!Anthropic公开发现的一切
「Anthropic 发布了他们如何使用多个 Claude AI 智能体构建多智能体研究系统的精彩解释。 对于任何构建多智能体系统的人来说,这是一本必读的指南。 」刚刚,X 知名博主 Rohan Paul 强力推荐了 Anthropic 一项新研究。
6/16/2025 8:39:00 AM
复旦大学/上海创智学院邱锡鹏:Context Scaling,通往AGI的下一幕
2024 年底,Ilya Sutskever 断言「我们所知的预训练时代即将终结」,让整个人工智能领域陷入对 Scaling What 的集体追问之中。 新的思路不断涌现:推理时扩展(Test-Time Scaling)让 OpenAI 的 o 系列在数学推理上大放异彩,DeepSeek-R1 通过 GRPO 替代 PPO 实现了强化学习的突破,强化学习 Self-play LLM 让 AI 在游戏和代码生成中展现惊人能力,Agent 化路径则催生了能够操作浏览器、调用工具的新一代智能助理…… 每一条路都在探寻可能的下一个跃迁。 在这场技术探讨中,复旦大学 / 上海创智学院的邱锡鹏教授提出了一个耐人寻味的新路径 ——Context Scaling。
6/16/2025 8:33:00 AM
AI自己给自己当网管,实现安全“顿悟时刻”,风险率直降9.6%
大型推理模型(LRMs)在解决复杂任务时展现出的强大能力令人惊叹,但其背后隐藏的安全风险不容忽视。 尽管学术界已尝试通过监督微调(SFT)有效地提升模型安全,但下图的测试结果所示,监督微调在面对训练数据领域外的层出不穷的“越狱”攻击时,往往显得捉襟见肘,泛化能力有限。 同时,之前的工作没有对大型推理模型的安全思考做深入的分析,以进行针对性的提升。
6/16/2025 8:25:00 AM
如何在本地运行量化版的DeepSeek-R1-0528?
译者 | 布加迪审校 | 重楼DeepSeek-R1-0528是DeepSeek R1 推理模型的最新版本,需要715GB的磁盘空间,使其成为市面上最大的开源模型之一。 然而由于来自Unsloth 的先进的量化技术,该模型的大小可以缩减至162GB,整整缩减了80%。 这使得用户能够以显著降低的硬件要求体验模型的全部功能,尽管性能略有下降。
6/16/2025 8:11:47 AM
布加迪
别让千亿参数成摆设!万字解读LLM应用的生存法则
现在大家都在聊大模型,动不动就说什么“智能涌现”、“颠覆行业”。 但说实话,真正能把大模型用好的,不是谁喊得响,而是看谁的系统设计够硬核! 什么是大模型应用系统设计?
6/16/2025 8:06:51 AM
曹洪伟
使用FastAPI和Redis缓存加速机器学习模型服务
译者 | 李睿审校 | 重楼本文介绍了如何使用FastAPI和Redis缓存加速机器学习模型服务。 FastAPI作为高性能Web框架用于构建API,Redis作为内存中的数据结构存储系统作为缓存层。 通过集成FastAPI和Redis,系统能快速响应重复请求,避免冗余计算,显著降低延迟和CPU负载。
6/16/2025 7:55:29 AM
李睿
放弃博士学位加入OpenAI,他要为ChatGPT和AGI引入记忆与人格
今天,一位研究者加入 OpenAI 的消息吸引了很多人的关注。 这位研究者名为 James Campbell,他才于 2024 年攻读 CMU 的计算机科学博士学位。 现在,他突然宣布要放弃博士学业,加入 OpenAI。
6/16/2025 7:50:00 AM
机器之心
AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字
在进入本文之前,我们先来玩个 10 秒小游戏:在心里选一个「1-10」的整数。 现在设想我问:「你想的是 5 吗? 」如果听到是自己的数字,你会本能地答 Yes,其余统统 No。
6/16/2025 6:00:00 AM
机器之心
八个几乎能替代一整个开发团队的AI工具
前言大家好,我是林三心,用最通俗易懂的话讲最难的知识点是我的座右铭,基础是进阶的前提是我的初心~一、代码生产维度的范式转移1. GitHub Copilot X(智能编程协作者)图片能力进化: 从代码补全到全栈架构建议,最新X版本可理解项目上下文进行智能重构案例实测: 在开发REST API时,自动生成符合OpenAPI规范的完整端点代码,节省65%编码时间不可替代性: 保留核心算法设计权的同时,将重复劳动压缩70%2. Replit Ghostwriter(云端智造引擎)图片突破性优势: 环境配置时间归零,支持50 语言实时协作实战场景: 快速验证区块链智能合约时,5分钟完成从构思到测试部署的全流程数据背书: 2024年独立开发者调研显示,使用该工具的原型验证速度提升400%二、产品设计链路的智能跃迁3.
6/16/2025 5:10:00 AM
林三心不学挖掘机
越脏越安全?哈佛团队研究:10%毒性训练让大模型百毒不侵
最近,一项关于 4chan 的“毒性”实验颠覆了 AI 社区的集体直觉: ——原来,适度地喂模型吃“毒”,反而能让它更容易“解毒”。 长期以来,大模型训练的默认路线是“干净数据优先”。 OpenAI、Anthropic、Google DeepMind 等公司,都花费巨资雇佣标注团队,把网络文本里的暴力、歧视、骚扰言论清洗得一干二净——因为没人愿意让自己的模型变成“种族主义诗人”或“厌女主义讲师”。
6/16/2025 3:00:00 AM
迈向人工智能的认识论:真的没有人真正了解大型语言模型 (LLM) 的黑箱运作方式吗
如果大型语言模型能够推理,但没有人能够看到它是如何推理的,那么它真的在思考吗? 简而言之,像 GPT-4 这样的大型语言模型 (LLM) 展现出卓越的能力,但其运作方式却如同“黑匣子”,这意味着它们的内部决策过程在很大程度上是不透明的,甚至对其创建者而言也是如此。 本系列文章综合了近期关于 LLM 可解释性的研究,重点关注这些模型的推理方式、其解释的可靠性(思维链)以及对安全性和部署的影响。
6/16/2025 2:30:00 AM
晓晓
狂砸143亿,小扎挖来Meta自己的“奥特曼”?曝光神秘挖角名单:年薪千万刀,扎克伯格亲自发出“令人心动的 offer”!
最近,Meta抢人的料真是挺猛的。 先是重金砸向数据独角兽 Scale AI,投资高达 143 亿美元,直接把 CEO Alexandr Wang 挖来,挂帅“超级智能实验室”。 Alexandr就这么离开了自己的初创公司,他在 X 上写道: “你们可能已经从最近的新闻中了解到,像这样级别的机会,往往意味着必须做出牺牲。
6/16/2025 2:25:00 AM
伊风
Text2SQL案例演示:信贷风控策略场景(Coze工作流版)
半个月前,知识星球中有个关于 text2sql 的讨论,后续又陆续有成员私信沟通。 这篇节取了个目前手头项目的 MVP (最小可行化)版本,来和各位做个分享交流,也希望听到来自不同场景的最佳实践。 这篇试图说清楚:信贷风控策略迭代场景的标准流程、Text2SQL 三类技术方案,MVP 版本的 Coze text2sql 工作流,以及对人机协同的一些碎片思考。
6/16/2025 2:00:00 AM
韦东东
我用这两个提示在 ChatGPT 中创建了 7 万多个提示
当发现越来越多的人喜欢自己的提示时,便萌生了产出更多高品质提示的想法。 为了深入了解他人都在设计哪些提示,不得不上网搜索各种示例和灵感。 最终,灵光一现:为何不先定义一组“超大角色提示”模板,再配套一套“后续跟进提示”模板,以此批量生成所需内容?
6/16/2025 1:33:00 AM
前端小智
阿里出手了:Spring AI Alibaba正式版发布!
Spring AI Alibaba 是基于 Spring AI 构建的,专门针对阿里云生态(如通义千问、OSS 等)进行深度适配和功能增强。 Spring AI Alibaba 提供高层次的 AI API 抽象与云原生基础设施集成方案,帮助开发者快速构建 AI 应用。 主要功能Spring AI Alibaba 提供的主要功能如下:开发复杂 AI 应用的高阶抽象 Fluent API — ChatClient。
6/13/2025 6:20:02 PM
磊哥
5000次风暴,谷歌训出AI预言家!天气预报ChatGPT时刻?
昨天,谷歌DeepMind与谷歌研究团队正式推出交互式气象平台Weather Lab,用于共享人工智能天气模型。 图片在热带气旋路径预测方面,谷歌这次的新模型刷新SOTA,是首个在性能上明确超越主流物理模型的AI预测模型。 图片论文链接:::,所经之处,徒留废墟。
6/13/2025 4:02:04 PM
新智元
Transformer八周年!Attention Is All You Need被引破18万封神
Transformer,八岁了! 开创如今这场生成式AI革命的论文《Attention Is All You Need》迎来了第8个年头。 Transformer催生了ChatGPT、Gemini、Claude等诸多前沿产品。
6/13/2025 3:59:48 PM
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
数据
大模型
Midjourney
开源
智能
Meta
用户
微软
GPT
学习
技术
AI新词
图像
Gemini
智能体
马斯克
AI创作
Anthropic
英伟达
论文
训练
代码
算法
LLM
Stable Diffusion
芯片
腾讯
苹果
蛋白质
Claude
开发者
AI for Science
Agent
生成式
神经网络
机器学习
3D
xAI
研究
人形机器人
生成
AI视频
百度
工具
计算
Sora
GPU
华为
大语言模型
RAG
具身智能
AI设计
字节跳动
搜索
大型语言模型
场景
AGI
深度学习
视频生成
预测
视觉
伟达
架构
Transformer
编程
神器推荐
DeepMind
亚马逊
特斯拉
AI模型