AI在线 AI在线

神经网络

告别 RAG 还太早?听听 Anthropic 怎么说

你有没有向你的RAG系统问过一个具体问题,却得到一个令人沮丧的模糊答案? 你并不孤单。 以下是一个巧妙的改进方法如何改变游戏规则。
6/10/2025 2:44:00 AM
AI研究生

微信自研高性能推理计算引擎 XNet-DNN:跨平台 GPU 部署大语言模型及优化实践

作者 | yannicXNet-DNN 是微信高性能计算团队自主研发的一款全平台神经网络推理引擎。 我们在 XNet 的 RCI 基础设施之上构建了全平台的 GPU LLM . 推理能力。
6/3/2025 9:25:00 AM
腾讯技术工程

机器学习轻量化加速的五大核心技术突破​

译者 | 朱先忠审校 | 重楼简介无论你是在准备面试,还是在工作中构建机器学习系统,模型压缩都已成为一项必备技能。 在大语言模型(LLM)时代,模型规模越来越大,如何压缩这些模型以使其更高效、更小巧、更易于在轻量级机器上使用,这一挑战从未如此严峻。 在本文中,我将介绍每位机器学习从业者都应该理解和掌握的四种基本压缩技术。
6/3/2025 8:45:25 AM
朱先忠

RAG中基于图的重排序:利用图神经网络革新信息检索(含代码)

一、信息检索的演进与图重排序的崛起在大数据与人工智能技术爆发的时代,信息检索(IR)系统面临着前所未有的挑战:用户查询日益复杂,跨领域知识需求激增,传统基于词法匹配或单一语义向量的检索模型逐渐暴露局限性。 两阶段检索架构——初始检索与重排序——虽已成为主流,但第一阶段的快速检索常因忽略文档间关联而引入噪声,第二阶段的传统重排序器(如交叉编码器)又难以捕捉结构化知识与全局语义关系。 在此背景下,基于图的重排序(Graph-Based Re-ranking)技术应运而生,通过图神经网络(GNN)建模文档、实体与查询间的复杂关系,为信息检索领域注入了全新的活力。
6/3/2025 2:11:00 AM
大模型之路

打破Transformer霸权!液态神经网络统治风电预测!

一眼概览该论文提出一种受生物神经系统启发的Liquid Neural Network(LNN)框架,首次将其应用于风电多时间尺度预测任务,并在多个数据集上显著优于LSTM、GRU等主流方法。 核心问题风电预测面临高度不确定性和非线性动态问题,传统深度学习方法如LSTM、GRU虽有成效,但缺乏解释性和泛化能力。 该研究致力于解决如何在多时间尺度、不同分辨率和变量数下,准确且透明地预测风电输出的问题。
5/9/2025 8:48:06 AM
萍哥学AI

突破瓶颈,嵌入式AI神经持续学习引擎—Replay4NCL

阿联酋大学、纽约大学阿布扎比分校以及巴基斯坦国立科技大学的研究人员,联合推出了一种高效内存重放方法Replay4NCL,以解决嵌入式 AI 系统在动态环境中持续学习的难题。 值得一提的是,该研究成果已经被第62届设计自动化大会(DAC)审核通过,会在2025年6月在旧金山举办的大会上展示。 随着AI技术的快速迭代发展,嵌入式 AI 系统在各种应用场景中扮演着越来越重要的角色,例如,移动机器人、无人驾驶、无人机等。
5/6/2025 10:13:41 AM
AIGC开放社区

AAAI2025 | 频域+注意力双加持!SNN性能飙升33%,刷新多项SOTA纪录!

一眼概览FSTA-SNN 提出了一种频域驱动的时空注意力模块(FSTA),显著提升脉冲神经网络(SNN)的特征学习能力与能效,在多个数据集上实现了更优性能和更低的脉冲发放率。 核心问题当前 SNN 在信息稀疏表示方面虽具能效优势,但其中间脉冲输出存在冗余且缺乏系统分析,导致特征提取能力受限、性能不稳定。 论文核心关注的问题是:如何在不增加能耗的前提下,抑制冗余脉冲、增强关键特征提取能力,从而提升 SNN 的整体性能与鲁棒性。
4/28/2025 3:45:00 AM
萍哥学AI

SLAM3R:北大陈宝权团队等只用单目长视频就能实时重建高质量的三维稠密点云

北京大学陈宝权团队和香港大学等高校及业界机构联合推出实时三维重建系统 SLAM3R,首次实现从长视频(单目 RGB 序列)中实时且高质量地重建场景的稠密点云。 SLAM3R 使用消费级显卡(如 4090D)即可达到 20 FPS 的性能,重建点云的准确度和完整度达到当前最先进水平,同时兼顾了运行效率和重建质量。 该研究成果被 CVPR 2025 接收为 Highlight 论文,并在第四届中国三维视觉大会(China3DV 2025)上被评选为年度最佳论文,合作者为董思言博士(共同一作)、王书哲博士、尹英达博士、杨言超助理教授和樊庆楠博士,第一作者为北京大学本科生刘宇政。
4/24/2025 9:44:05 AM
机器之心

用任务向量做模型编辑为何有效?这篇ICLR 2025 Oral论文给出了理论分析

本文作者李宏康,博士毕业于美国伦斯勒理工大学,本科毕业于中国科学技术大学,并即将前往宾夕法尼亚大学担任博士后研究员。 研究方向包括深度学习理论、大语言模型理论等等。 本文的通讯作者为伦斯勒理工大学的汪孟教授。
4/22/2025 9:40:00 AM
机器之心

MIT惊人神作:AI独立提出哈密顿物理!0先验知识,一天破译人类百年理论

充满想象力的MIT大牛团队,又有新作了! 大佬Max Tegmark、Ziming Liu等人在一项新研究中发现,AI能够在没有任何先验知识的情况下,能够完全独立地提出哈密顿物理量。 论文地址:,这里的AI是LNN,而非LLM。
4/16/2025 3:28:01 PM
新智元

人类一生所学不过4GB,加州理工顶刊新研究引热议

24小时不间断学习且不遗忘,一辈子也只有4GB的“知识储量”? 科学家们最新研究,计算出了人类学习积累上限,就这么多~~(甚至还不如一块U盘能装)。 这是来自Cell旗下神经科学顶刊Neuron上的一项工作,它提出了一个发人深省的悖论:人类信息处理速度仅为每秒10bit,而我们的感官系统却能以每秒10亿bit的速率收集数据。
4/14/2025 9:10:00 AM
量子位

算法不重要,AI的下一个范式突破,「解锁」新数据源才是关键

众所周知,人工智能在过去十五年里取得了令人难以置信的进步,尤其是在最近五年。 回顾一下人工智能的「四大发明」吧:深度神经网络→Transformer 语言模型→RLHF→推理,基本概括了 AI 领域发生的一切。 我们有了深度神经网络(主要是图像识别系统),然后是文本分类器,然后是聊天机器人,现在我们又有了推理模型。
4/12/2025 3:57:00 PM
机器之心

解码衰老时钟:深度学习揭示大脑衰老速度与认知功能衰退的关联

编辑 | 2049人脑的衰老速度与认知衰退、神经退行性疾病风险密切相关。 然而,传统脑龄(Brain Age,BA)模型仅能反映从出生到检测时间点的累积衰老效应,无法捕捉近期或动态的衰老速率。 这一问题在阿尔茨海默病(AD)等神经退行性病变的早期预警中尤为突出。
3/26/2025 2:11:00 PM
ScienceAI

驯服AI,更懂物理!何恺明团队提出全新DHN「去噪哈密顿网络」

近日,何恺明团队提出了去噪哈密顿网络(Denoising Hamiltonian Network,DHN),就像给物理知识开了挂。 传统的机器学习方法虽然能处理一些简单的物理关系,但面对复杂的物理系统时,却显得力不从心。 来自MIT、斯坦福、西北大学等的研究者将哈密顿力学算子推广到神经网络中,不仅能捕捉非局部时间关系,还能通过去噪机制减轻数值积分误差。
3/17/2025 8:20:00 AM
新智元

AI界的“火眼金睛”!Finer-CAM让AI理解图像更精准,分类更清晰

人工智能在图像识别领域那是卷得飞起,分类猫猫狗狗早就Out啦,现在流行的是“连连看”Plus版,比如一眼认出这是哪一年的哪个型号的跑车,或者这只鸟的眉毛是不是比隔壁老王的粗那么一丢丢。 可问题来了,神经网络它“聪明”是聪明,但让它说清楚“我凭啥说这是这个?”的时候,就有点像学渣被问解题思路,支支吾吾半天憋不出个所以然。 传统的Class Activation Map(CAM)就像是给神经网络脑袋上戴了个发光圈,告诉你“嗯,它主要看这块儿了”,但具体看啥?为啥看这儿?遇到“双胞胎”级别的细微差别,它就直接懵圈了,指着一堆相似的地方说“大概…是这儿吧…也许…”。
3/10/2025 11:02:00 AM
AI在线

模型训练前置处理之数据预处理

在神经网络技术中,有几个比较重要的环节,其中就有神经网络模型的设计;但在此之前还有一个很重要的功能就是数据集的整理;一个高质量的数据集高性能神经网络模型的基础。 但怎么才能打造一个合格的数据集,以及怎么打造一个合格的数据集? 而这就是神经网络模型的数据处理部分。
3/7/2025 8:00:00 AM
AI探索时代

神经网络技术栈介绍:PyTorch,Transformer,NLP,CV,Embedding

学习了一段时间神经网络技术之后发现对很多东西理解还不够深刻,所以今天就来梳理一下神经网络的技术栈,深入了解一下不同的工具在神经网络中所处的位置,以及其扮演的角色。 先说一句废话,神经网络仅仅只是神经网络,它不涉及具体的任务,只是一个神经网络模型;神经网络要解决实际问题就需要和不同的任务领域相结合。 神经网络技术栈要了解或者说要学习神经网络,首先要从两个方面去入手——技术原理和应用场景。
3/5/2025 2:00:00 PM
AI探索时代

经网络的每一层都是干嘛的?这才是神经网络结构的核心

组成一个神经网络从技术上来说主要有以下几个部分:数据集神经网络结构损失函数优化函数反向传播而不同神经网络模型之间最主要的区别就是神经网络结构的异同,当然最相似的地方也是神经网络结构。 原因就在于神经网络结构是由多个神经网络层所组成的;而使用不同的层就实现了不同功能的神经网络模型。 神经网络的层一个神经网络是由多种神经网络层所组成的,而每个神经网络层实现不同的功能;然后由此组成神经网络模型。
3/5/2025 8:00:00 AM
AI探索时代