神经网络
AAAI2025 | 频域+注意力双加持!SNN性能飙升33%,刷新多项SOTA纪录!
一眼概览FSTA-SNN 提出了一种频域驱动的时空注意力模块(FSTA),显著提升脉冲神经网络(SNN)的特征学习能力与能效,在多个数据集上实现了更优性能和更低的脉冲发放率。 核心问题当前 SNN 在信息稀疏表示方面虽具能效优势,但其中间脉冲输出存在冗余且缺乏系统分析,导致特征提取能力受限、性能不稳定。 论文核心关注的问题是:如何在不增加能耗的前提下,抑制冗余脉冲、增强关键特征提取能力,从而提升 SNN 的整体性能与鲁棒性。
4/28/2025 3:45:00 AM
萍哥学AI
SLAM3R:北大陈宝权团队等只用单目长视频就能实时重建高质量的三维稠密点云
北京大学陈宝权团队和香港大学等高校及业界机构联合推出实时三维重建系统 SLAM3R,首次实现从长视频(单目 RGB 序列)中实时且高质量地重建场景的稠密点云。 SLAM3R 使用消费级显卡(如 4090D)即可达到 20 FPS 的性能,重建点云的准确度和完整度达到当前最先进水平,同时兼顾了运行效率和重建质量。 该研究成果被 CVPR 2025 接收为 Highlight 论文,并在第四届中国三维视觉大会(China3DV 2025)上被评选为年度最佳论文,合作者为董思言博士(共同一作)、王书哲博士、尹英达博士、杨言超助理教授和樊庆楠博士,第一作者为北京大学本科生刘宇政。
4/24/2025 9:44:05 AM
机器之心
用任务向量做模型编辑为何有效?这篇ICLR 2025 Oral论文给出了理论分析
本文作者李宏康,博士毕业于美国伦斯勒理工大学,本科毕业于中国科学技术大学,并即将前往宾夕法尼亚大学担任博士后研究员。 研究方向包括深度学习理论、大语言模型理论等等。 本文的通讯作者为伦斯勒理工大学的汪孟教授。
4/22/2025 9:40:00 AM
机器之心
MIT惊人神作:AI独立提出哈密顿物理!0先验知识,一天破译人类百年理论
充满想象力的MIT大牛团队,又有新作了! 大佬Max Tegmark、Ziming Liu等人在一项新研究中发现,AI能够在没有任何先验知识的情况下,能够完全独立地提出哈密顿物理量。 论文地址:,这里的AI是LNN,而非LLM。
4/16/2025 3:28:01 PM
新智元
人类一生所学不过4GB,加州理工顶刊新研究引热议
24小时不间断学习且不遗忘,一辈子也只有4GB的“知识储量”? 科学家们最新研究,计算出了人类学习积累上限,就这么多~~(甚至还不如一块U盘能装)。 这是来自Cell旗下神经科学顶刊Neuron上的一项工作,它提出了一个发人深省的悖论:人类信息处理速度仅为每秒10bit,而我们的感官系统却能以每秒10亿bit的速率收集数据。
4/14/2025 9:10:00 AM
量子位
算法不重要,AI的下一个范式突破,「解锁」新数据源才是关键
众所周知,人工智能在过去十五年里取得了令人难以置信的进步,尤其是在最近五年。 回顾一下人工智能的「四大发明」吧:深度神经网络→Transformer 语言模型→RLHF→推理,基本概括了 AI 领域发生的一切。 我们有了深度神经网络(主要是图像识别系统),然后是文本分类器,然后是聊天机器人,现在我们又有了推理模型。
4/12/2025 3:57:00 PM
机器之心
解码衰老时钟:深度学习揭示大脑衰老速度与认知功能衰退的关联
编辑 | 2049人脑的衰老速度与认知衰退、神经退行性疾病风险密切相关。 然而,传统脑龄(Brain Age,BA)模型仅能反映从出生到检测时间点的累积衰老效应,无法捕捉近期或动态的衰老速率。 这一问题在阿尔茨海默病(AD)等神经退行性病变的早期预警中尤为突出。
3/26/2025 2:11:00 PM
ScienceAI
驯服AI,更懂物理!何恺明团队提出全新DHN「去噪哈密顿网络」
近日,何恺明团队提出了去噪哈密顿网络(Denoising Hamiltonian Network,DHN),就像给物理知识开了挂。 传统的机器学习方法虽然能处理一些简单的物理关系,但面对复杂的物理系统时,却显得力不从心。 来自MIT、斯坦福、西北大学等的研究者将哈密顿力学算子推广到神经网络中,不仅能捕捉非局部时间关系,还能通过去噪机制减轻数值积分误差。
3/17/2025 8:20:00 AM
新智元
AI界的“火眼金睛”!Finer-CAM让AI理解图像更精准,分类更清晰
人工智能在图像识别领域那是卷得飞起,分类猫猫狗狗早就Out啦,现在流行的是“连连看”Plus版,比如一眼认出这是哪一年的哪个型号的跑车,或者这只鸟的眉毛是不是比隔壁老王的粗那么一丢丢。 可问题来了,神经网络它“聪明”是聪明,但让它说清楚“我凭啥说这是这个?”的时候,就有点像学渣被问解题思路,支支吾吾半天憋不出个所以然。 传统的Class Activation Map(CAM)就像是给神经网络脑袋上戴了个发光圈,告诉你“嗯,它主要看这块儿了”,但具体看啥?为啥看这儿?遇到“双胞胎”级别的细微差别,它就直接懵圈了,指着一堆相似的地方说“大概…是这儿吧…也许…”。
3/10/2025 11:02:00 AM
AI在线
模型训练前置处理之数据预处理
在神经网络技术中,有几个比较重要的环节,其中就有神经网络模型的设计;但在此之前还有一个很重要的功能就是数据集的整理;一个高质量的数据集高性能神经网络模型的基础。 但怎么才能打造一个合格的数据集,以及怎么打造一个合格的数据集? 而这就是神经网络模型的数据处理部分。
3/7/2025 8:00:00 AM
AI探索时代
神经网络技术栈介绍:PyTorch,Transformer,NLP,CV,Embedding
学习了一段时间神经网络技术之后发现对很多东西理解还不够深刻,所以今天就来梳理一下神经网络的技术栈,深入了解一下不同的工具在神经网络中所处的位置,以及其扮演的角色。 先说一句废话,神经网络仅仅只是神经网络,它不涉及具体的任务,只是一个神经网络模型;神经网络要解决实际问题就需要和不同的任务领域相结合。 神经网络技术栈要了解或者说要学习神经网络,首先要从两个方面去入手——技术原理和应用场景。
3/5/2025 2:00:00 PM
AI探索时代
经网络的每一层都是干嘛的?这才是神经网络结构的核心
组成一个神经网络从技术上来说主要有以下几个部分:数据集神经网络结构损失函数优化函数反向传播而不同神经网络模型之间最主要的区别就是神经网络结构的异同,当然最相似的地方也是神经网络结构。 原因就在于神经网络结构是由多个神经网络层所组成的;而使用不同的层就实现了不同功能的神经网络模型。 神经网络的层一个神经网络是由多种神经网络层所组成的,而每个神经网络层实现不同的功能;然后由此组成神经网络模型。
3/5/2025 8:00:00 AM
AI探索时代
小白也能轻松理解的大模型入门锦囊!
一、何为大模型? 大模型,英文名叫Large Model,也被称为基础模型(Foundation Model)。 我们通常说的大模型,主要指的是其中最常用的一类——大语言模型(Large Language Model,简称LLM)。
3/3/2025 10:00:00 AM
小喵学AI
神经网络技术的核心:反向传播算法(BP算法)
在前面的文章中介绍训练一个模型,其主要区别就在于神经网络模型的架构;但可能很多人并不知道神经网络模型的核心算法就是——反向传播算法,也被叫做BP算法。 可能很多人都听说过反向传播算法,但可能很多人都没意识到反向传播算法对神经网络的重要性;可以说现在的神经网络模型就建立在反向传播算法之上,没有反向传播算法就没有神经网络的存在。 反向传播(BP)算法了解过人工智能发展史的人应该都知道,人工智能技术并不是最近才出现的新技术;在世界上第一台计算机出现之后的十年,人工智能的概念就已经被提出来了,但人工智能技术的发展却是最近几年才爆火的。
3/3/2025 8:10:00 AM
AI探索时代
不同神经网络之间的区别,仅仅只是网络结构的不同,明白了这个你才能知道应该怎么学习神经网络
在学习神经网络技术的过程中,会有多种不同的神经网络架构;如常见的RNN,CNN等;因此,我们很多人都会被这些乱七八糟的神经网络架构给迷惑住,即想学习神经网络又不知道应该怎么入手;面对各种各样的网络模型,也不知道应该去学习哪种。 但是,我们从问题的最本质出发,不同的神经网络唯一的区别就是网络结构的不同;之所以有多种神经网络模型的原因就在于不同的网络架构能够完成不同的任务。 比如,RNN适合文本处理,机器翻译;CNN适合图像处理等。
2/28/2025 10:02:34 AM
AI探索时代
怎么实现一个神经网络?神经网络的组成结构
对学习神经网络技术的人来说,自己设计一个神经网络模型是很多人都想做的事情;也是神经网络技术学习过程中必不可少的一个环节;但是很多人又不知道应该怎么下手。 所以今天就介绍一下怎么设计一个神经网络模型。 实现一个神经网络很多人认为神经网络复杂的原因是因为没有了解过神经网络的组成结构;因此,就很难弄清楚神经网络模型中每个环节的作用,所以我们就先从神经网络的结构入手。
2/25/2025 2:13:31 PM
AI探索时代
模型训练之数据集操作:矩阵变换
对神经网络技术有所了解的人应该都知道,要想训练一个高性能的神经网络模型,除了神经网络本身的设计之外,还一个非常重要的前提就是数据集的质量问题;因此,打造一个高质量的数据集就是一个必不可少的过程。 但具体怎么才能开发一个合格的数据集,这时就离不开对数据集的各种操作;而由于在神经网络中,数据的主要载体是多维数组,也就是矩阵;因此一般情况下,数据集的数据格式也会以矩阵的形式存在。 而学会对矩阵的操作就是一个必不可少的技能之一;下面我们就以MINST数据集为例,来简单介绍一下对数据集的操作过程。
2/24/2025 8:40:00 AM
AI探索时代
断交OpenAI后,人形机器人独角兽首秀:一个神经网络控制整个上身,能听懂人话可抓万物
与OpenAI断交之后,Figure首个成果出炉:Helix,一个端到端通用控制模型,它能让机器人像人一样感知、理解和行动。 只需自然语言提示,机器人就能拿起任何东西,哪怕是从没见过的东西,比如这个活泼的小仙人掌。 从官方放出的演示中可以看到,它在接收到人类的提示后,就会按照指令逐一拿起桌上的物品放进冰箱。
2/21/2025 6:05:54 AM
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
模型
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
GPT
微软
Meta
图像
AI创作
技术
论文
Stable Diffusion
Gemini
马斯克
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
计算
Anthropic
3D
Sora
AI for Science
AI设计
机器学习
开发者
GPU
AI视频
华为
场景
人形机器人
预测
百度
苹果
伟达
Transformer
深度学习
xAI
Claude
模态
字节跳动
大语言模型
搜索
驾驶
具身智能
神器推荐
文本
Copilot
LLaMA
算力
安全
视觉
视频生成
训练
干货合集
应用
大型语言模型
亚马逊
科技
智能体
DeepMind
特斯拉