LLM
苹果《思考的错觉》再挨批,Claude与人类共著论文指出其三大关键缺陷
几天前,苹果一篇《思考的错觉》论文吸睛无数又争议不断,其中研究了当今「推理模型」究竟真正能否「推理」的问题,而这里的结论是否定的。 论文中写到:「我们的研究表明,最先进的 LRM(例如 o3-mini、DeepSeek-R1、Claude-3.7-Sonnet-Thinking)仍然未能发展出可泛化的解决问题能力 —— 在不同环境中,当达到一定复杂度时,准确度最终会崩溃至零。 」不过,这篇论文的研究方法也受到了不少质疑,比如我们的一位读者就认为「给数学题题干加无关内容,发现大模型更容易答错,而质疑大模型不会推理」的做法并不十分合理。
LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?
近段时间,关于 AI 自我演进/进化这一话题的研究和讨论开始变得愈渐密集。 本月初我们就曾梳理报道了一些,包括 Sakana AI 与不列颠哥伦比亚大学等机构合作的「达尔文-哥德尔机(DGM)」、CMU 的「自我奖励训练(SRT)」、上海交通大学等机构提出的多模态大模型的持续自我改进框架「MM-UPT」、香港中文大学联合 vivo 等机构的自改进框架「UI-Genie」。 那之后,相关研究依然还在不断涌现,以下拼图展示了一些例子:而前些天,OpenAI CEO、著名 𝕏 大 v 山姆・奥特曼在其博客《温和的奇点(The Gentle Singularity)》中更是畅想了一个 AI/智能机器人实现自我改进后的未来。
别让千亿参数成摆设!万字解读LLM应用的生存法则
现在大家都在聊大模型,动不动就说什么“智能涌现”、“颠覆行业”。 但说实话,真正能把大模型用好的,不是谁喊得响,而是看谁的系统设计够硬核! 什么是大模型应用系统设计?
AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字
在进入本文之前,我们先来玩个 10 秒小游戏:在心里选一个「1-10」的整数。 现在设想我问:「你想的是 5 吗? 」如果听到是自己的数字,你会本能地答 Yes,其余统统 No。
迈向人工智能的认识论:真的没有人真正了解大型语言模型 (LLM) 的黑箱运作方式吗
如果大型语言模型能够推理,但没有人能够看到它是如何推理的,那么它真的在思考吗? 简而言之,像 GPT-4 这样的大型语言模型 (LLM) 展现出卓越的能力,但其运作方式却如同“黑匣子”,这意味着它们的内部决策过程在很大程度上是不透明的,甚至对其创建者而言也是如此。 本系列文章综合了近期关于 LLM 可解释性的研究,重点关注这些模型的推理方式、其解释的可靠性(思维链)以及对安全性和部署的影响。
TypeScript 杀疯了,开发 AI 应用新趋势!
随着 AI 技术的迅猛发展,越来越多开发者开始构建基于大模型(LLM)、多智能体协作、浏览器端推理等新型应用。 在这一浪潮中,TypeScript 凭借其强大的类型系统、成熟的工具链和活跃的生态,正逐步成为现代 AI 应用开发的主流选择之一。 根据 Y Combinator 统计,约有 60% 至 70% 的 AI Agent 初创公司采用 TypeScript 开发。
强化预训练(RPT):LLM 预训练新范式,当模型学会战略思考
大家好,我是肆〇柒。 在当下,大型语言模型(LLM)正以其卓越的能力在诸多任务中引人瞩目。 这些能力的提升,很大程度上得益于在大规模文本数据上的 next-token-prediction 自监督学习范式。
AI自动写学术综述:10分钟生成6万字,成本不到四块钱
学术综述论文在科学研究中发挥着至关重要的作用,特别是在研究文献快速增长的时代。 传统的人工驱动综述写作需要研究者审阅大量文章,既耗时又难以跟上最新进展。 而现有的自动化综述生成方法面临诸多挑战:AI生成的综述结构往往缺乏连贯逻辑,组织结构较差,存在宽度和深度的结构失衡问题;在参考文献方面,经常无法引用真正相关和有影响力的文献,容易引用无关文献而忽略核心贡献;评估方式主要依赖LLM整体质量评估,缺乏对大纲质量、参考文献相关性等关键方面的细粒度分析。
一文读懂LLM基于JSON Schema的结构化输出
什么是基于JSON Schema的结构化输出大语言模型通常会生成无特定结构的自由格式文本,在能够有效使用之前需要进行大量的后期处理。 这种不可预测性会导致错误、浪费时间并增加成本。 OpenAI推出基于JSON Schema的结构化输出以解决这一问题。
Mistral的首个强推理模型:拥抱开源,推理速度快10倍
大模型强推理赛道,又迎来一位重量级玩家。 本周二,欧洲人工智能公司 Mistral AI 发布了 Magistral,这是一个全新的大语言模型(LLM)系列,展现了强大的推理能力。 它能够进行不断反思,并解决更复杂的任务。
一招缓解LLM偏科!调整训练集组成,“秘方”在此 | 上交大&上海AI Lab等
大幅缓解LLM偏科,只需调整SFT训练集的组成。 本来不擅长coding的Llama 3.1-8B,代码能力明显提升。 上海交大&上海AI Lab联合团队提出创新方法IDEAL,可显著提升LLM在多种不同领域上的综合性能。
MCP 很好,但它不是万灵药!真正的技术进步,往往始于祛魅之后的清醒认知
当下AI领域最炙手可热的概念,莫过于MCP。 MCP 指的是Model Context Protocol(模型上下文协议)。 令人意外的是,一个协议系统的热度,甚至盖过了OpenAI发布的最新模型,成为行业讨论的焦点。
LLM 推理引擎综述:优化与效率的多维探索
大家好,我是肆〇柒,玩开源模型蛮久了,做开源模型项目的各位,应该都了解推理引擎在工程落地上的重要性。 一个好的推理引擎,不仅要具备算力的精准调度能力,还需要符合工程基线的稳定性指标,更重要的,还要保障模型的推理精度符合业务标准。 然而,随着模型规模的指数级膨胀,如何高效地部署和运行这些模型,成为了技术发展道路上的关键挑战。
Qwen:PARSCALE 让语言模型在并行中飞跃
大家好,我是肆〇柒。 今天,我们来聊聊大型语言模型(LLM)领域的一项研究——PARSCALE。 在人工智能快速发展的当下,大型语言模型应用前景无比广阔,然而,随着模型规模的不断膨胀,我们正面临着前所未有的挑战。
苹果再轰AI推理能力,GitHub大佬怒怼:这不是推理能力的真实面貌!
最近,苹果公司发布了一篇引发热议的论文,指出当前的大语言模型(LLM)在推理方面存在重大缺陷。 这一观点迅速在社交媒体上引起热议,尤其是 GitHub 的高级软件工程师 Sean Goedecke 对此提出了强烈反对。 他认为,苹果的结论过于片面,并不能全面反映推理模型的能力。
首创像素空间推理,7B模型领先GPT-4o,让VLM能像人类一样「眼脑并用」
视觉语言模型(VLM)正经历从「感知」到「认知」的关键跃迁。 当OpenAI的o3系列通过「图像思维」(Thinking with Images)让模型学会缩放、标记视觉区域时,我们看到了多模态交互的全新可能。 然而,当前主流VLM仍被困在「文本茧房」中——依赖文本token间接翻译视觉信息,在高清图像中的微小物体、视频里的动态细节等场景中,常常因缺乏直接视觉操作能力而「视而不见」。
大模型能够自发形成“人类思维地图”!Nature子刊重磅研究揭示多模态大模型类脑机制
大模型≠随机鹦鹉! Nature子刊最新研究证明:大模型内部存在着类似人类对现实世界概念的理解。 LLM能理解现实世界和各种抽象概念吗?
大厂实践: LLM 加速大规模测试迁移
Airbnb最近完成了第一次由 LLM 驱动的大规模代码迁移,将 3500 个测试文件从 Enzyme 更新为 React测试库(RTL,React Testing Library)。 最初我们估计这需要 1 年半的时间来手工完成,但通过使用前沿模型和强大的自动化组合,我们在 6 周内完成了整个迁移。 本文将重点介绍从 Enzyme 迁移到 RTL 所面临的独特挑战,如何通过 LLM 解决这些挑战,以及如何构建迁移工具来执行 LLM 驱动的大规模迁移。
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI新词
AI绘画
大模型
机器人
数据
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
英伟达
Gemini
智能体
技术
马斯克
Anthropic
图像
AI创作
训练
LLM
论文
AI for Science
代码
腾讯
苹果
算法
Agent
Claude
芯片
具身智能
Stable Diffusion
xAI
蛋白质
人形机器人
开发者
生成式
神经网络
机器学习
AI视频
3D
大语言模型
字节跳动
RAG
Sora
百度
研究
GPU
生成
华为
工具
AGI
计算
生成式AI
AI设计
大型语言模型
搜索
亚马逊
AI模型
视频生成
特斯拉
DeepMind
场景
Copilot
深度学习
Transformer
架构
MCP
编程
视觉