AI
“现阶段就差数据了”Figure 03登《时代》最佳发明榜封面,CEO放话了
刚发布第三代机器人Figure 03、收获全网关注的Figure,很快又因CEO的言论再度引发热议? 事情是这样婶儿的……有网友发推文表示:Figure CEO Brett Adcock最近接受了《时代》采访,《时代》称Figure 03仍存在重大问题,尚未适用于日常工作。 当被问及还需要什么时,Brett回答:数据。
UC伯克利大牛预警:留给人类能干的活,只剩5年了!
折衣、做饭、拖地,五年后可能都不用你亲自动手! UC伯克利教授、机器人顶级专家Sergey Levine预言:2030年前,机器人就能像家政阿姨一样,独立打理整个家庭。 这不是炫技演示,而是「自我进化飞轮」即将启动的信号。
77岁「AI教父」Hinton:AI早有意识!我们打造的智能,可能终结人类文明
当大家热议AI算力与应用之时,「AI教父」Hinton猛地扯回「何为人」的原点。 几十年来,Hinton像一位耐心的炼金术士,致力于将模仿大脑运作的理论,锻造成驱动现代AI的强大引擎。 然而,这位创造者如今却站在了自己创造物的阴影之下,发出了沉重的警告。
熬死5家初创公司老鸟揭露业内残酷真相:70%的Agent产品系OpenAI套壳,没有上下文和工具,智能体就是笨蛋!无限记忆是陷阱
编辑 | 云昭出品 | 51CTO技术栈(微信号:blog51cto). 先坦白一件事:AI Agent 不是魔法。 它们脆弱、多变,更像是喝了咖啡的实习生,而不是能独立完成任务的员工。
Vision-Zero:零数据VLM自我进化!陈怡然团队提出零监督训练新范式
本文作者包括来自杜克大学的汪勤思、林阅千、李海教授、陈怡然教授,新加坡国立大学的刘博,马里兰大学的周天翼教授,和 Adobe 的研究员施靖、万锟、赵文天。 开源代码&模型:::,但训练过度依赖人工标注的数据与精心设计的强化学习奖励。 这种依赖带来数据稀缺问题:多模态标注成本高昂,限制了训练数据的规模与多样性。
西湖大学打造了一个AI科学家,突破人类SOTA,还能自己发论文
西湖大学用AI科学家,两周完成了人类三年的科研量。 这个科学家,是一个名叫DeepScientist的AI系统,自己捣鼓出了5000多个科学想法,动手验证了其中1100个,最后在三个前沿AI任务上,把人类科学家辛辛苦苦创造的SOTA纪录给刷新了。 西湖大学文本智能实验室(WestlakeNLP)发了篇论文,把这个能搞自主探索的AI科学家介绍给了全世界。
Anthropic发布的AI Agent设计哲学与经典设计模式
最近在学习AI Agent的设计模式时,发现了Anthropic发布的一篇好文《Building Effective agents》,仔细学习了下,值得跟大家分享。 在AI代理开发领域,Anthropic最新发布的研究报告为行业指明了方向。 经过与数十个跨行业团队的深度合作,Anthropic发现了一个令人意外的真相:最成功的LLM代理实现都采用简单、可组合的模式,而非复杂的框架。
让大模型合成检查器:UIUC团队挖出Linux内核90余个长期潜伏漏洞
这篇论文的作者来自伊利诺伊大学香槟分校(UIUC)张令明老师团队,包括:杨晨源,四年级博士生,研究方向是基于 AI 大模型的软件系统可靠性保障;赵子杰,四年级博士生,研究方向是模糊测试等软件工程技术与 AI 大模型的结合;谢子晨,科研实习生,目前为弗吉尼亚大学一年级博士生;李皓宇,科研实习生,目前为 UIUC 一年级博士生。 张令明老师现任 UIUC 计算机系副教授,主要从事软件工程、机器学习、代码大模型的相关研究。 想象一下,大语言模型不仅能生成代码,还能通过静态分析看代码找漏洞:在千万行的 Linux 内核代码中挖出 92 个长期潜伏的真实缺陷 —— 这也可能是 LLM 首次在 Linux 内核中发现如此多的实际漏洞。
刚刚,北大&360里程碑式突破!32B安全分碾压千亿巨兽
2025年9月23日,由「北大-360大模型联合实验室」研发的TinyR1-32B模型正式发布。 近年来开源大模型层出不穷,但对「安全性」的关注却严重不足。 北大-360联合实验室聚焦于大模型安全方向,以极高的安全性能和轻量化的创新设计,推出更安全的模型TinyR1-32B。
苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
蛋白质折叠,一直是计算生物学中的一个核心难题,并对药物研发等领域产生着深远影响。 若把蛋白质折叠类比为视觉领域的生成模型,氨基酸序列相当于「提示词」,模型输出则是原子的三维坐标。 受此思维启发,研究人员构建了一个基于标准Transformer模块与自适应层的通用且强大的架构——SimpleFold。
估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
刚刚,OpenAI前CTO Mira Murati创办的Thinking Machines Lab再次发布成果! 这是他们继《克服LLM推理中的不确定性》(Defeating Nondeterminism in LLM Inference)之后,第二篇研究文章——《模块流形》(Modular Manifolds)。 博客地址:「走钢丝」,必须小心翼翼地维持其内部「健康」,防止权重、激活值或梯度这些关键张量变得过大或过小,以免引发数值溢出等一系列问题。
免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
在大型语言模型的优化中,业界通常认为计算量与模型性能正相关。 然而,杜克大学陈怡然教授团队的一项最新研究DPad,却揭示了一个反直觉的现象:对于扩散大语言模型(dLLMs),通过一种「先验丢弃」策略,主动减少其计算量,不仅能带来高达61倍的推理加速,还能意外地增强模型语境学习的能力。 这一发现源于对dLLM内部一种「中奖彩票」(Lottery Ticket)现象的洞察。
刚刚,奥特曼预言:人类「只剩」最后5年!
倒计时开始! 奥特曼把「超级智能」实现的时间线拉到了2030年。 5年后,AI将全面超越人类。
2025全球前2%顶尖科学家榜单发布!清华国内第一、Bengio全球前十
当地时间9月19日,斯坦福大学和国际权威学术出版社爱思唯尔(Elsevier)共同发布了「斯坦福2025全球前2%顶尖科学家榜单」。 全榜单链接:,国内共有1435人入选终身「斯坦福2025全球前2%顶尖科学家榜单」;有2270人入选年度「斯坦福2025全球前2%顶尖科学家榜单」。 这份榜单是学术界关注度最高的爱思唯尔发布的年度清单之一。
创智&交大发现AI能动性新规律, 78样本胜GPT5实现软件+科研自动化
本文来自于上海创智学院和上海交大刘鹏飞老师团队,团队专注于构建最前沿 AI 系统。 核心作者来自于香港理工大学,上海交通大学,以及中国科学技术大学。 从 ChatGPT 到 Claude,从 Codex 到 Claude Code,全球科技公司正在 "能动性" 领域展开激烈竞争。
强化学习之父Richard Sutton最新采访:LLM是“死路一条”
强化学习之父Richard Sutton老爷子加入了Yann LeCun行列,认为当前的LLM路线行不通,不可能通向AGI。 图灵奖获得者Richard Sutton,强化学习之父最新采访,认为当前热门的大语言模型是一条死胡同。 他的核心观点是,LLMs 的架构从根本上缺乏从实际互动(on-the-job)中持续学习的能力。
Agentic AI 的 17 种模式及其在下一代大规模 AI 系统中的价值
当你构建一个大规模AI系统时,你其实是在把不同的代理设计模式组合起来。 每个模式都有自己的阶段、构建方法、输出和评估。 如果我们退一步,把这些模式归类,它们可以分成17种高层架构,这些架构捕捉了代理系统可能采用的主要形式……Multi-Agent System,在这个系统中,几个工具和代理一起合作来解决问题。
为什么说“嵌入”是 AI 的灵魂?一文带你玩转 SpringAI 向量模型
最近有小伙伴问我,AI 里的“嵌入模型 API”到底是干嘛的? 其实,它就像把文字、图片、数据转成“数字DNA”,方便 AI 理解和处理。 在 SpringAI 里,这一套 API 已经封装得很优雅,今天小米就带大家从故事开头一路聊到落地实现,保证看完你能用得飞起。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI新词
AI绘画
大模型
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
英伟达
Gemini
智能体
技术
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
AI for Science
代码
腾讯
苹果
算法
Agent
Claude
芯片
具身智能
Stable Diffusion
xAI
蛋白质
人形机器人
开发者
生成式
神经网络
机器学习
AI视频
3D
字节跳动
大语言模型
RAG
Sora
百度
研究
GPU
生成
华为
工具
AGI
计算
生成式AI
AI设计
大型语言模型
搜索
亚马逊
AI模型
视频生成
特斯拉
DeepMind
场景
Copilot
深度学习
Transformer
架构
MCP
编程
视觉