AI在线 AI在线

神经网络

推理的深度边界:神经网络如何在有限参数下实现多步推理?

大家好,我是肆〇柒。 今天要和大家分享的这项突破性研究来自MBZUAI(穆罕默德·本·扎耶德人工智能大学)、莫斯科物理技术学院神经网络与深度学习实验室、莫斯科人工智能研究院以及伦敦数学科学研究所的联合团队。 这项研究通过精心设计的1dCA基准,首次清晰地区分了模型的规则抽象能力和多步状态传播能力,为我们理解神经网络的"思考"机制提供了新视角。
9/15/2025 4:00:00 AM
肆零柒

构建切实有用的机器学习模型的七个提示

译者 | 布加迪审校 | 重楼这篇实用指南帮助你从概念验证迈入到生产就绪的机器学习。 构建能够切实解决实际问题的机器学习模型不仅仅需要在测试时取得高准确率得分,更需要构建能够在生产环境中持续运行的系统。 本文介绍了七个实用技巧,帮助你专注于构建能够提供可靠业务价值而非仅仅追求出色指标的模型。
9/4/2025 8:06:34 AM
布加迪

语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究

语音分离领域针对具有挑战性的 “鸡尾酒会问题”,随着深度神经网络 (DNN) 的发展,该领域取得了革命性的进展。 语音分离可以用于独立应用,在复杂的声学环境中提高语音清晰度。 此外,它还可以作为其他语音处理任务(如语音识别和说话人识别)的重要预处理方法。
9/3/2025 2:00:08 PM

大规模数据管道困境正导致AI模型全面崩溃

你的神经网络在开发环境中表现完美,Transformer模型的基准成绩令同行侧目,智能体系统在受控环境下执行决策树毫无瑕疵。 可一旦部署到生产环境,一切便土崩瓦解——是不是很熟悉?问题不在于你的算法,不在于超参数调优,也不在于算力基础设施。 真正的隐患,是潜伏在AI堆栈之下的烂尾数据管道——它会把你精心打造的高精度模型,变成概率性的垃圾生成器。
8/27/2025 7:10:00 AM
Winston

Yann LeCun最新纪录片首曝!传奇AI教父的双面人生,深度学习幕后40年

在AI的璀璨星空中,有一位传奇人物始终闪耀——Yann LeCun。 他不仅是深度学习的开创者之一,也是Meta的首席AI科学家。 当扎克伯格敲定28岁的Alexander Wang出任Meta的首席AI官后,所有人同时想到一个问题。
8/18/2025 9:12:00 AM

人工智能能否实现类人记忆?探索思想上传之路

译者 | 涂承烨审校 | 重楼记忆帮助人们记住“我是谁”。 它保存着人们的经历、知识和情感。 过去,记忆被认为只存在于人脑中。
8/8/2025 8:01:07 AM
涂承烨

鼠标的未来是手环?解码肌肉信号,Meta黑科技登上Nature

手腕表面肌电图(sEMG)能以侵入式手腕设备感知和解释肌肉激活,并以人机界面的形式作为计算机输入。 这项技术被Meta认为是下一代人机交互的革命性技术。 Meta在2024年已经分享了一系列的肌电信号研究和开源的肌电信号数据集,并发表了技术白皮书,如今这项技术登上了7月24日的Nature。
8/6/2025 9:22:44 AM

无需准确传感信号!轻松搞定「多段软体机械臂」复杂位姿与形状控制

软体机械臂由于其运动的非线性、时滞性与迟滞性而难以控制,而在多段软体机械臂(MSCA)内,其各段间的驱动、传感和运动的耦合更增加了控制难度。 但同时,由于MSCA的各段可以相对独立地驱动,这类机械臂可以实现末端位姿控制、形状控制、控制过程中自动避障、实时交互等复杂控制任务。 意大利比萨圣安娜高等学院和洛桑联邦理工学院的研究人员提出了一种利用双向循环神经网络(biLSTM)对于MSCA构型的规划与控制的策略,该方法即使运用不准确的内部传感信号也能实现上述复杂任务。
7/31/2025 9:08:00 AM

AI教父Hinton首次现身中国,合照全网刷屏!预警AI觉醒临界点已至

深度学习之父、图灵奖巨头、2024物理学诺奖得主Hinton,亲自来中国了! 这似乎是第一次,Hinton在公开活动上以真人肉身踏上中国的土地。 现在,这张他和市委书记陈吉宁会见的照片,已经在全网刷屏了。
7/25/2025 3:10:15 PM

十年六万引!BatchNorm 封神,ICML 授予时间检验奖

一篇发表于2015年的论文,在十年后,于国际机器学习大会(ICML)2025上,被授予了“时间检验奖”(Test of Time Award)。 这篇论文就是深度学习领域无人不晓的《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》。 它的出现,从根本上改变了研究者们训练深度神经网络的方式,成为AI技术发展进程中的一座关键里程碑。
7/18/2025 7:00:00 AM

Lora微调实操教程(上):人话版概念详解(附案例)

知识星球中,上个月有个关于让 LLM 学习公司内部业务和产品逻辑中,微调、RAG、提示词三者效果对比的提问。 我当时给出了一个经典的客服场景数据集构建示例,鉴于后续又陆续有人评论和私信来问,从这篇开始,专门写两篇内容来做个粗浅的分享。 之所以要分两篇内容,我想还是在做具体的微调案例演示前,把一些基本概念尽可能的讲清楚,这样感兴趣的话在复现下期案例和二开时,能够在自己的业务场景下对参数调优更有的放矢些。
7/11/2025 10:31:11 AM
韦东东

当我们谈激活函数时,我们在谈什么?—— 从梯度消失到 ReLU 革命神经网络非线性的秘诀

激活函数本质上是神经网络的“秘密武器”,它使神经网络能够学习复杂的模式,并对现实世界中普遍存在的非线性关系进行建模。 但这些函数究竟是什么,为什么它们如此重要呢? 更重要的是,它们从何而来?
7/2/2025 7:30:13 AM
柏企阅文

神经网络的泛化能力:数学分析与提升策略

从图像识别到语音处理,从自然语言理解到复杂系统的预测,神经网络的应用无处不在。 然而,一个关键问题始终困扰着研究人员和实践者:神经网络的泛化能力。 泛化能力决定了神经网络在面对新的、未见过的数据时,能否准确地进行预测和决策。
6/30/2025 2:44:00 AM
Fairy Girl

ICML 2025 Oral | NAS老树开新花,NUS提出智能体超网,成本狂降55%

本文第一作者为张桂彬,新加坡国立大学25Fall计算机科学博士生;本文在南洋理工大学的王琨博士、上海人工智能实验室的白磊老师、和中国科学技术大学的王翔教授指导下完成。 LLM 智能体的时代,单个 Agent 的能力已到瓶颈,组建像 “智能体天团” 一样的多智能体系统已经见证了广泛的成功。 但 “天团” 不是人越多越好,手动设计既费力又不讨好,现有的智能体自动化方法又只会 “一招鲜”,拿一套复杂阵容应对所有问题,导致 “杀鸡用牛刀”,成本高昂。
6/23/2025 8:57:00 AM

告别 RAG 还太早?听听 Anthropic 怎么说

你有没有向你的RAG系统问过一个具体问题,却得到一个令人沮丧的模糊答案? 你并不孤单。 以下是一个巧妙的改进方法如何改变游戏规则。
6/10/2025 2:44:00 AM
AI研究生

微信自研高性能推理计算引擎 XNet-DNN:跨平台 GPU 部署大语言模型及优化实践

作者 | yannicXNet-DNN 是微信高性能计算团队自主研发的一款全平台神经网络推理引擎。 我们在 XNet 的 RCI 基础设施之上构建了全平台的 GPU LLM . 推理能力。
6/3/2025 9:25:00 AM
腾讯技术工程

机器学习轻量化加速的五大核心技术突破​

译者 | 朱先忠审校 | 重楼简介无论你是在准备面试,还是在工作中构建机器学习系统,模型压缩都已成为一项必备技能。 在大语言模型(LLM)时代,模型规模越来越大,如何压缩这些模型以使其更高效、更小巧、更易于在轻量级机器上使用,这一挑战从未如此严峻。 在本文中,我将介绍每位机器学习从业者都应该理解和掌握的四种基本压缩技术。
6/3/2025 8:45:25 AM
朱先忠

RAG中基于图的重排序:利用图神经网络革新信息检索(含代码)

一、信息检索的演进与图重排序的崛起在大数据与人工智能技术爆发的时代,信息检索(IR)系统面临着前所未有的挑战:用户查询日益复杂,跨领域知识需求激增,传统基于词法匹配或单一语义向量的检索模型逐渐暴露局限性。 两阶段检索架构——初始检索与重排序——虽已成为主流,但第一阶段的快速检索常因忽略文档间关联而引入噪声,第二阶段的传统重排序器(如交叉编码器)又难以捕捉结构化知识与全局语义关系。 在此背景下,基于图的重排序(Graph-Based Re-ranking)技术应运而生,通过图神经网络(GNN)建模文档、实体与查询间的复杂关系,为信息检索领域注入了全新的活力。
6/3/2025 2:11:00 AM
大模型之路