AI在线 AI在线

ICLR 2025时间检验奖颁给Adam之父!Bengio「注意力机制」摘亚军

刚刚,ICLR 2025时间检验奖公布! 斩获大奖的是,xAI工程师、Hinton高徒Jimmy Ba发表的Adam优化器。 获得亚军的是,Yoshua Bengio团队提出的「注意力机制」,为Transformer和大模型奠定了基础。

刚刚,ICLR 2025时间检验奖公布!

斩获大奖的是,xAI工程师、Hinton高徒Jimmy Ba发表的Adam优化器。

获得亚军的是,Yoshua Bengio团队提出的「注意力机制」,为Transformer和大模型奠定了基础。

图片

每年,ICLR时间检验奖都会颁给10年前发表,且对领域产生持久影响的论文。

滑铁卢大学CS助理教授Gautam Kamath做了一个总结:

  • OpenAI联创Diederik P. Kingma已连续第二次拿下ICLR ToT大奖,去年因VAEs论文获奖
  • 今年ToT冠军/亚军,全都授予加拿大高校的学者
  • 2024年和2025年亚军来自NYU团队

图片

时间检验奖

ICLR 2025时间检验奖公布,再次让所有人见证了深度学习领域的「黄金十年」。

Adam优化器让大模型训练更快更稳,注意力机制更是赋予了AI超强理解力,成为深度学习领域的重要里程碑。

Adam优化器:深度学习「加速引擎」

标题:Adam: A Method for Stochastic Optimization

作者:Diederik P. Kingma, Jimmy Ba

机构:阿姆斯特丹大学/OpenAI、多伦多大学

图片

论文地址:https://arxiv.org/abs/1412.6980

如果说深度学习是一辆飞驰列车,那么Adam优化器就是它的「超级引擎」。

2015年,由Diederik P. Kingma和Jimmy Ba提出的Adam算法,彻底改变了神经网络训练的方式。

Adam全称是Adaptive Moment Estimation,通过结合梯度算法的一阶矩和二阶矩,自动调整学习率,不仅加速了模型收敛,还提升了训练的稳定性。

它之所以成为深度学习领域,重要的算法之一,其魅力在于不同领域和神经架构中的通用性与高效性。

无论是CV、NLP、还是RL,Adam几乎成为所有深度学习模型的默认优化器,成为无数顶尖模型的基石。

注意力机制:Transformer前世今生

标题:Neural Machine Translation by Jointly Learning to Align and Translate)

作者:Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio

机构:康斯特大学、蒙特利尔大学

图片

论文地址:https://arxiv.org/abs/1409.0473

由Yoshua Bengio带队这篇论文,首次引入了注意力机制(Attention Mechanism),为现代深度学习架构奠定了基础。

它从根本上改变了序列到序列模型处理信息的方式。

在此之前,编码器-解码器架构通常将整个输入序列,压缩成固定长度向量,面对较长序列往往捉襟见肘。

Bengio团队的突破在于,让模型能够「动态关注」输入序列相关部分,极大地提升了翻译任务的性能。

要知道,这篇论文的影响力远远超出了机器翻译领域。

2017年,Attention is All You Need开山之作出世,注意力机制成为了Transformer模型的核心,催生了BERT、GPT系等大模型的繁荣。

如今,几乎所有顶尖的AI模型都离不开注意力机制的加持。

正因如此,这篇论文也被业界誉为「现代深度学习的基石」。

深度学习巨擘领衔

这两篇2015年里程碑式论文荣登榜首,分别是由图灵奖得主Yoshua Bengio,以及Jimmy Ba领衔。

正如Gautam Kamath所指出那样,加拿大在深度学习领域的领先地位。

Jimmy Ba

作为Adam论文共同作者,Jimmy Ba的学术轨迹堪称耀眼。

图片

他分别于2011年和2014年获得了多伦多大学本科与硕士学位,分别师从Brendan Frey和Ruslan Salakhutdinov教授。

博士期间,他又在多伦多大学跟着Geoffrey Hinton学习。

Jimmy Ba的长期研究目标致力于解决一个核心计算问题:如何构建具备类人效率和适应性的通用问题求解机器?

具体而言,他的研究聚焦于为深度神经网络开发高效的学习算法。

他的研究成果频频亮相NeurIPS、ICLR和ICML顶会,2016年更是摘得Facebook机器学习方向研究生奖学金(Facebook Graduate Fellowship)。

目前,Google Scholar主页显示,Adam这篇论文被引超20万。

图片

Yoshua Bengio

提到Yoshua Bengio,AI界无人不晓。

作为深度学习三巨头之一,他的每项研究都在改写AI的历史。

图片

Yoshua Bengio,生于1964年3月5日是一位加拿大-法国籍计算机科学家,也是人工神经网络和深度学习领域的先驱。他是蒙特利尔大学的教授,也是AI研究所MILA的科学总监。

他在麦吉尔大学获得了理学学士学位(电气工程)、理学硕士学位(计算机科学)和博士学位(计算机科学)。

获得博士学位后,Bengio曾在MIT(导师是Michael I. Jordan)和AT&T贝尔实验室担任博士后研究员。

自1993年以来,他一直是蒙特利尔大学的教员,领导着MILA,并且是加拿大高等研究院(CIFAR)「机器与大脑学习」项目的联合主任。

2017年,Bengio被授予加拿大勋章。同年,他被提名为加拿大皇家学会会士,并获得了Marie-Victorin Quebec奖。

2018年,他与Geoffrey Hinton和Yann LeCun因其在深度学习领域的基础性工作,共同获得了计算领域的「诺贝尔奖」——ACM图灵奖。

2020年,他当选为英国皇家学会会士。2022年,他与Geoffrey Hinton、Yann LeCun和Demis Hassabis共同获得了「科学研究」类别的阿斯图里亚斯女亲王奖。

2023年,Bengio被授予法国最高荣誉勋章——荣誉军团骑士勋章。同年,被评为ACM Fellow。

2025年,Bengio与Bill Dally、Geoffrey E. Hinton、John Hopfield、Yann LeCun、黄仁勋和李飞飞共同获得了伊丽莎白女王工程奖。

Google Scholar个人主页中,Bengio总被引数破90万,其中被引量最高的论文便是与LeCun和Hinton共同撰写的「深度学习」的论文。

图片

有趣的是,他的兄弟Samy Bengio也是一位在神经网络领域很有影响力的计算机科学家,目前担任苹果AI和机器学习研究高级总监。

相关资讯

41%博士后逃生学术界,顶刊PNAS揭残酷真相!名校光环背后曝职业危机

去年,随着LLM产品化和工程化的发展,工业界的研究岗迅速缩减,许多AI博士面临巨大的就业压力,纷纷表示后悔读博。 工业界机会稀少,学术界同样问题重重。 为此,有的博士生甚至转行去当了主播。
1/22/2025 3:14:57 PM
新智元

南大钱超团队攻克百亿晶体管难题,斩获EDA顶会2025最佳论文!AI学院本硕博生联手

据南京大学人工智能学院网站报道,南大LAMDA组钱超教授团队在DATE 2025发表的芯片设计优化论文「Timing-Driven Global Placement by Efficient Critical Path Extraction」获会议最佳论文奖。 电子设计自动化(Electronic Design Automation,EDA)是芯片设计的基石产业,被誉为「芯片之母」。 欧洲设计自动化与测试会议(Design, Automation and Test in Europe Conference,DATE)是EDA领域的顶级国际学术会议。
2/24/2025 12:33:28 PM
新智元

性能无损,模型隐私保护效果提升50%!蚂蚁数科创新跨域微调框架| AAAI 2025 Oral

大模型的快速及持续发展,离不开对模型所有权及数据隐私的保护。 AAAI 2025期间,蚂蚁数科、浙江大学、利物浦大学和华东师范大学联合团队提出了一种创新的跨域微调框架ScaleOT,可以实现在模型性能无损的前提下,将模型隐私保护效果提升50%。 相比于知识蒸馏技术,还降低了90%的算力消耗,为百亿级参数模型的跨域微调提供了一种高效和轻量化的解决方案。
3/4/2025 9:20:00 AM
量子位
  • 1