AI在线 AI在线

神经网络

动作波动率降低70%!清华发布工业控制专用神经网络模型 | TIV'25

深度强化学习在机器人控制 、自动驾驶等复杂决策任务中取得了巨大成功([2])。 然而,传统强化学习算法训练出的策略网络往往对观测噪声和外部扰动十分敏感,导致输出的动作信号缺乏平滑性([3-5])。 现有的平滑方法大多从时域入手,例如设计与任务高度耦合的奖励函数、对网络施加复杂的正则化约束、或构建分层策略等。
10/17/2025 9:36:45 AM
新智元

图灵奖得主Hinton:AI可能已有主观体验,但人类对意识的理解存在局限

AI领域奠基人、 2024 年诺贝尔物理学奖得主Geoffrey Hinton在最新播客访谈中提出了一个争议性观点:当前的AI系统可能已经具备某种形式的主观体验,只是尚未发展出自我意识。 他认为问题的核心不在于AI是否有意识,而在于人类对意识本质的理解可能存在根本性偏差。 Hinton在访谈中回顾了AI技术的演进轨迹。
10/15/2025 11:05:59 AM
AI在线

深层网络通过分层抽象能够学习到更复杂的特征表示,从而提升模型对复杂数据的建模能力

神经网络层数越多效果越好这一观点,在特定条件下成立,其核心逻辑在于深层网络通过分层抽象能够学习到更复杂的特征表示,从而提升模型对复杂数据的建模能力。 图片理论机制:分层抽象与特征表示能力增强特征抽象的层次化神经网络通过堆叠层数实现特征的逐层抽象。 以图像识别为例:底层:学习边缘、纹理等简单特征(如卷积核检测水平/垂直边缘);中层:组合底层特征形成形状、部件(如检测车轮、车窗);高层:整合中层特征构成完整对象(如识别整辆汽车)。
10/14/2025 1:11:00 AM
幻风magic

庖丁解牛——透彻理解多层感知机(MLP)的内部机制

译者 | 朱先忠审校 | 重楼简介多层感知机(MLP)——有时也称为人工神经网络(ANN)或前馈神经网络(FNN)——是深度学习中最基础、最强大的架构之一。 其灵活的设计和卓越的性能使其成为解决各领域各种问题的首选算法。 此外,MLP是所有现代深度学习架构的核心构建块——无论是CNN、RNN、LSTM还是Transformer。
9/24/2025 8:03:22 AM
朱先忠

躲了科学家几十年的流体不稳定奇点,被DeepMind用AI找到了

流体里藏了几十年的隐形奇点,终于被找到了——AI立大功。 谷歌DeepMind携手布朗大学、纽约大学和斯坦福大学用物理知情神经网络(PINN) 高精度数值优化的组合拳找到了流体方程里的不稳定奇点。 据说,这种奇点非常“挑剔”,初始条件差一点就消失,之前根本找不到,这次被AI发现了。
9/19/2025 2:46:03 PM

推理的深度边界:神经网络如何在有限参数下实现多步推理?

大家好,我是肆〇柒。 今天要和大家分享的这项突破性研究来自MBZUAI(穆罕默德·本·扎耶德人工智能大学)、莫斯科物理技术学院神经网络与深度学习实验室、莫斯科人工智能研究院以及伦敦数学科学研究所的联合团队。 这项研究通过精心设计的1dCA基准,首次清晰地区分了模型的规则抽象能力和多步状态传播能力,为我们理解神经网络的"思考"机制提供了新视角。
9/15/2025 4:00:00 AM
肆零柒

构建切实有用的机器学习模型的七个提示

译者 | 布加迪审校 | 重楼这篇实用指南帮助你从概念验证迈入到生产就绪的机器学习。 构建能够切实解决实际问题的机器学习模型不仅仅需要在测试时取得高准确率得分,更需要构建能够在生产环境中持续运行的系统。 本文介绍了七个实用技巧,帮助你专注于构建能够提供可靠业务价值而非仅仅追求出色指标的模型。
9/4/2025 8:06:34 AM
布加迪

语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究

语音分离领域针对具有挑战性的 “鸡尾酒会问题”,随着深度神经网络 (DNN) 的发展,该领域取得了革命性的进展。 语音分离可以用于独立应用,在复杂的声学环境中提高语音清晰度。 此外,它还可以作为其他语音处理任务(如语音识别和说话人识别)的重要预处理方法。
9/3/2025 2:00:08 PM

大规模数据管道困境正导致AI模型全面崩溃

你的神经网络在开发环境中表现完美,Transformer模型的基准成绩令同行侧目,智能体系统在受控环境下执行决策树毫无瑕疵。 可一旦部署到生产环境,一切便土崩瓦解——是不是很熟悉?问题不在于你的算法,不在于超参数调优,也不在于算力基础设施。 真正的隐患,是潜伏在AI堆栈之下的烂尾数据管道——它会把你精心打造的高精度模型,变成概率性的垃圾生成器。
8/27/2025 7:10:00 AM
Winston

Yann LeCun最新纪录片首曝!传奇AI教父的双面人生,深度学习幕后40年

在AI的璀璨星空中,有一位传奇人物始终闪耀——Yann LeCun。 他不仅是深度学习的开创者之一,也是Meta的首席AI科学家。 当扎克伯格敲定28岁的Alexander Wang出任Meta的首席AI官后,所有人同时想到一个问题。
8/18/2025 9:12:00 AM

人工智能能否实现类人记忆?探索思想上传之路

译者 | 涂承烨审校 | 重楼记忆帮助人们记住“我是谁”。 它保存着人们的经历、知识和情感。 过去,记忆被认为只存在于人脑中。
8/8/2025 8:01:07 AM
涂承烨

鼠标的未来是手环?解码肌肉信号,Meta黑科技登上Nature

手腕表面肌电图(sEMG)能以侵入式手腕设备感知和解释肌肉激活,并以人机界面的形式作为计算机输入。 这项技术被Meta认为是下一代人机交互的革命性技术。 Meta在2024年已经分享了一系列的肌电信号研究和开源的肌电信号数据集,并发表了技术白皮书,如今这项技术登上了7月24日的Nature。
8/6/2025 9:22:44 AM

无需准确传感信号!轻松搞定「多段软体机械臂」复杂位姿与形状控制

软体机械臂由于其运动的非线性、时滞性与迟滞性而难以控制,而在多段软体机械臂(MSCA)内,其各段间的驱动、传感和运动的耦合更增加了控制难度。 但同时,由于MSCA的各段可以相对独立地驱动,这类机械臂可以实现末端位姿控制、形状控制、控制过程中自动避障、实时交互等复杂控制任务。 意大利比萨圣安娜高等学院和洛桑联邦理工学院的研究人员提出了一种利用双向循环神经网络(biLSTM)对于MSCA构型的规划与控制的策略,该方法即使运用不准确的内部传感信号也能实现上述复杂任务。
7/31/2025 9:08:00 AM

AI教父Hinton首次现身中国,合照全网刷屏!预警AI觉醒临界点已至

深度学习之父、图灵奖巨头、2024物理学诺奖得主Hinton,亲自来中国了! 这似乎是第一次,Hinton在公开活动上以真人肉身踏上中国的土地。 现在,这张他和市委书记陈吉宁会见的照片,已经在全网刷屏了。
7/25/2025 3:10:15 PM

十年六万引!BatchNorm 封神,ICML 授予时间检验奖

一篇发表于2015年的论文,在十年后,于国际机器学习大会(ICML)2025上,被授予了“时间检验奖”(Test of Time Award)。 这篇论文就是深度学习领域无人不晓的《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》。 它的出现,从根本上改变了研究者们训练深度神经网络的方式,成为AI技术发展进程中的一座关键里程碑。
7/18/2025 7:00:00 AM

Lora微调实操教程(上):人话版概念详解(附案例)

知识星球中,上个月有个关于让 LLM 学习公司内部业务和产品逻辑中,微调、RAG、提示词三者效果对比的提问。 我当时给出了一个经典的客服场景数据集构建示例,鉴于后续又陆续有人评论和私信来问,从这篇开始,专门写两篇内容来做个粗浅的分享。 之所以要分两篇内容,我想还是在做具体的微调案例演示前,把一些基本概念尽可能的讲清楚,这样感兴趣的话在复现下期案例和二开时,能够在自己的业务场景下对参数调优更有的放矢些。
7/11/2025 10:31:11 AM
韦东东

当我们谈激活函数时,我们在谈什么?—— 从梯度消失到 ReLU 革命神经网络非线性的秘诀

激活函数本质上是神经网络的“秘密武器”,它使神经网络能够学习复杂的模式,并对现实世界中普遍存在的非线性关系进行建模。 但这些函数究竟是什么,为什么它们如此重要呢? 更重要的是,它们从何而来?
7/2/2025 7:30:13 AM
柏企阅文

神经网络的泛化能力:数学分析与提升策略

从图像识别到语音处理,从自然语言理解到复杂系统的预测,神经网络的应用无处不在。 然而,一个关键问题始终困扰着研究人员和实践者:神经网络的泛化能力。 泛化能力决定了神经网络在面对新的、未见过的数据时,能否准确地进行预测和决策。
6/30/2025 2:44:00 AM
Fairy Girl